Каталог

Медиацентр

MSI представляет массовое обновление ноутбуков с графикой до RTX 5090 и чипами Intel Arrow Lake

Сдержанность — не про MSI. Тайваньский производитель устроил настоящий парад новинок, представив более дюжины игровых ноутбуков сразу в пяти линейках: Cyborg, Crosshair, Raider, Stealth и Titan. Модели охватывают форм-факторы 15, 16 и 18 дюймов — так что отговорки в духе «нет подходящего варианта» больше не работают. Обновиться в этом году может буквально каждый. Что нового под капотом? Главным катализатором обновлённой линейки стали свежие процессоры Intel Arrow Lake-HX Plus — в частности, Core Ultra 9 290HX Plus. Acer, Asus и Dell уже успели выпустить ноутбуки на этих чипах раньше, но MSI наверстала упущенное и вышла на рынок во всеоружии. Восемь из новых моделей, включая Raider 16 Max HX, Raider 18 Max HX, Stealth 18 HX и Titan 18 HX, работают именно на Core Ultra 9 290HX Plus. В связке с ним — мощные видеокарты: RTX 5070 Ti, RTX 5080 и флагманская RTX 5090. Отдельного внимания заслуживает Crosshair 16 Max HX: он станет первым ноутбуком с ещё не вышедшей видеокартой Nvidia RTX 5070 с 12 ГБ видеопамяти. Raider 16 Max HX, засветившийся на CES 2026, обеспечивает суммарный системный TDP в 300 Вт, из которых 175 Вт приходится исключительно на GPU. А что насчёт бюджетных геймеров? MSI не забыла и о них. Crosshair 16 HX получил обновление на базе процессоров Intel 14-го поколения в сочетании с видеокартами RTX 5050, 5060 и 5070. Начальная серия Cyborg 15 также вернулась с доступными характеристиками. Цены пока не объявлены, однако линейка явно охватывает несколько ценовых сегментов — от среднего класса до премиума. Складывается впечатление, что релиз готовился в спешке под давлением конкурентов: даже разобраться во всех моделях и их спецификациях — задача не из лёгких. Первоисточник: Shikhar Mehrotra
45
16.04.2026 12:15:00

NVIDIA сделала квантовые вычисления практичными с помощью Ising — первых в мире открытых ИИ-моделей для квантовых компьютеров

Квантовые вычисления десятилетиями считались следующим рубежом в развитии компьютерных технологий. Многие компании годами пытались довести их до ума, и лишь единицы начали по-настоящему продвигаться вперёд. NVIDIA стала одной из тех, кто делает этот прорыв реальным. Компания уже предлагает открытую платформу разработки для квантовых вычислений под названием CUDA-Q. Она не привязана к конкретному типу кубитов и совместима с квантовыми процессорами (QPU) и различными кубитными модальностями. Теперь NVIDIA объявляет о выпуске первого семейства открытых квантовых ИИ-моделей — Ising. Они созданы для того, чтобы помочь исследователям и компаниям строить квантовые процессоры, которые были бы не просто технологически интересны, но и по-настоящему полезны в работе — прежде всего в задачах искусственного интеллекта. Почему квантовые компьютеры всё ещё не стали массовым инструментом Главным камнем преткновения остаются два процесса: калибровка квантовых процессоров и исправление квантовых ошибок. Кубиты по своей природе нестабильны и склонны к ошибкам. Сегодня квантовые процессоры допускают одну ошибку на каждую тысячу операций. Чтобы квантовые компьютеры стали по-настоящему практичными, этот показатель нужно снизить до одной ошибки на триллион операций. NVIDIA убеждена: именно искусственный интеллект способен устранить это узкое место и открыть путь к масштабным надёжным вычислениям. Что такое Ising и из чего он состоит Семейство Ising включает две передовые и гибко настраиваемые модели. Ising Calibration — это мультимодальная языковая модель, способная быстро интерпретировать измерения квантовых процессоров и реагировать на них в режиме реального времени. Это позволяет ИИ-агентам автоматизировать непрерывную калибровку оборудования, сокращая время, которое раньше занимало дни, до нескольких часов. Ising Decoding — модель на основе трёхмерной свёрточной нейронной сети, представленная в двух вариантах: оптимизированном для скорости и оптимизированном для точности. Её задача — декодирование в реальном времени для коррекции квантовых ошибок. По сравнению с pyMatching — нынешним отраслевым стандартом с открытым исходным кодом — Ising Decoding работает до 2,5 раза быстрее и обеспечивает точность в 3 раза выше. Что особенно важно в этих цифрах Впечатляют не только показатели производительности. Ising Calibration по объёму в 15 раз меньше аналогичных решений, а Ising Decoding требует в 10 раз меньше данных для обучения. Это делает модели доступными для более широкого круга исследователей и организаций — без необходимости в колоссальных вычислительных ресурсах. По данным NVIDIA, модели Ising уже используются ведущими исследователями, академическими учреждениями и коммерческими компаниями по всему миру. И это лишь очередной — но весьма значимый — шаг в эпоху квантовых вычислений.
83
15.04.2026 11:50:00

Intel Nova Lake «Core Ultra Series 4»: десктопные процессоры с 6–52 ядрами и TDP от 35 до 175 Вт

Процессоры выйдут под брендом Core Ultra Series 4 и получат новую архитектуру, новую платформу и существенно расширенные возможности. Среди ключевых изменений — три новые архитектуры: Coyote Cove для P-ядер, Arctic Wolf для E- и LP-E-ядер, а также Xe3/Xe3P для графических ядер. Нейронный процессор нового поколения NPU6 обеспечит производительность на уровне 74 TOPS — против 13 TOPS у Arrow Lake и 50 TOPS у Panther Lake для ноутбуков. По имеющимся данным, Nova Lake превзойдёт по IPC грядущую архитектуру AMD Zen 6, а прирост в однопоточных задачах составит порядка 10%. Главный козырь — многопоточность: линейка масштабируется до 52 ядер, что более чем вдвое превышает максимум в 24 ядра у будущих Ryzen. Пять конфигураций кристаллов, не менее 13 моделей Десктопные Nova Lake строятся на пяти основных кристаллах — в вариантах с одним и двумя вычислительными тайлами. Двухтайловые модели получили обозначение «DS» и ориентированы на энтузиастов. Самая младшая конфигурация — 8-ядерная, с 4 P-ядрами и 4 LP-E-ядрами. Следом идёт 16-ядерная версия с 4 P-ядрами, 8 E-ядрами и 4 LP-E-ядрами. Далее представлены две 28-ядерные конфигурации, каждая с 8 P-ядрами, 16 E-ядрами и 4 LP-E-ядрами — стандартная и версия с увеличенным кэшем bLLC (big Last Level Cache). Флагманская двухтайловая DS-конфигурация насчитывает 52 ядра: два тайла по 8 P-ядер и 16 E-ядер, плюс 4 LP-E-ядра, которые не удваиваются, поскольку располагаются за пределами вычислительного тайла. Модели bLLC — ответ Intel на процессоры AMD с технологией 3D V-Cache, реализованный без дополнительной укладки кристаллов. Одиночный тайл bLLC вмещает 144 МБ кэша, двойной — 288 МБ. Площадь стандартного вычислительного тайла составляет 98 мм², тайла bLLC — 154 мм². Линейка SKU: от Core Ultra 3 до флагмана с 52 ядрами Актуальный предварительный список включает не менее 13 моделей в сегментах Core Ultra 9, Core Ultra 7, Core Ultra 5 и Core Ultra 3. Для 52-ядерных чипов предусмотрен отдельный, более высокий уровень — с вариантами на 52 и 44 ядра с TDP до 175 Вт. Основная линейка рассчитана на 125 Вт с энергоэффективными вариантами на 65 Вт, а младшие модели Core Ultra 3 и начальные Core Ultra 5 получат TDP 35 Вт с возможностью разблокировки до 65 Вт. Также в линейке появятся модели с суффиксом «F» — без встроенной графики. Все остальные Nova Lake получат 2 ядра Xe3 в составе iGPU, а для одного из SKU планируется более производительная версия встроенной графики. Новая платформа LGA 1954: долгосрочная поддержка и апгрейд без замены кулера Intel подтверждает курс на длительную поддержку платформы: новый сокет LGA 1954 («Socket V») будет совместим не только с Nova Lake, но и с последующими поколениями — Razor Lake, Titan Lake и Hammer Lake. Существующие системы охлаждения можно будет использовать без замены. Энтузиастские материнские платы на LGA 1954 получат двухуровневый механизм фиксации 2L ILM с двумя прижимными рычагами — это улучшает теплоотвод без необходимости в сторонних контактных рамках. Из ключевых платформенных нововведений стоит выделить поддержку DDR5 до 8000 МТ/с «из коробки» и выше с оверклокерскими комплектами, приоритет на CUDIMM и CQDIMM для расширения объёма памяти свыше 256 ГБ, а также встроенные контроллеры Wi-Fi 7, Thunderbolt 5.0, Low-Energy Audio и ECC. По линиям PCIe процессор предложит до x16 Gen5 для дискретных GPU с возможностью разбивки на четыре канала x4 под AI-ускорители, поддержку до 8 SSD через три слота Gen5 x4 от чипсета и дополнительные линии Gen4. Intel против AMD: главная битва на десктопном рынке Nova Lake выглядит как серьёзная заявка Intel на возвращение лидерства в десктопном сегменте. AMD, в свою очередь, наверняка учитывает это при подготовке следующего поколения Ryzen — а значит, конкуренция только усилится. Официальные анонсы и детали от обоих производителей ожидаются на протяжении 2026 года. Для энтузиастов это обещает быть захватывающим противостоянием — и, будем надеяться, настоящей точкой перелома для тех, кто давно ждёт повода обновить систему. Первоисточник: Hassan Mujtaba
136
14.04.2026 10:40:00

Apple Glass: очки без дисплея дебютируют к началу 2027 года — сразу в четырёх дизайнах

Apple готовится составить серьёзную конкуренцию умным очкам Meta Ray-Ban. Купертиновцы намерены выпустить более премиальный и разнообразный по дизайну продукт. Умные очки Apple без встроенного дисплея появятся в продаже уже к началу 2027 года. Устройство оснастят интегрированными камерами, микрофонами и динамиками — всё это позволит владельцу взаимодействовать с улучшенной версией голосового ассистента Siri. Умные очки смогут: Снимать фото и видео с последующей синхронизацией на iPhone для редактирования и публикации; Принимать звонки и отслеживать уведомления; Воспроизводить музыку и обеспечивать полностью hands-free взаимодействие через Siri. Часть большой экосистемы Умные очки станут третьим звеном в цепочке новых AI-устройств Apple — наряду с AirPods Pro и AI-кулоном. Все три гаджета будут использовать компьютерное зрение для анализа окружающей обстановки и передачи контекстуальных данных напрямую в Siri и Apple Intelligence. Это откроет путь к таким функциям, как пошаговая навигация и визуальные напоминания. Чем Apple выделится на фоне Meta Apple намерена чётко дистанцироваться от конкурента за счёт глубокой интеграции с iPhone — куда более тесной, чем у Meta Ray-Ban. Помимо этого, в отличие от относительно сдержанного дизайна Meta, Apple делает ставку на премиальные ацетатные оправы и широкий выбор цветовых решений и дизайнов — по имеющимся данным, покупателям предложат сразу четыре варианта исполнения. Первоисточник: Rohail Saleem
173
13.04.2026 15:12:00

Новая нейросетевая технология сжатия Intel работает на GPU без специализированных ИИ-ядер

Когда NVIDIA представила свою сверхэффективную технологию Neural Texture Compression (NTC), многие справедливо опасались, что она останется эксклюзивной разработкой и будет доступна исключительно на видеокартах NVIDIA. Однако Intel поспешила с ответом, представив собственное решение — Texture Set Neural Compression (TSNC), которое предлагает сопоставимые преимущества, но принципиально отличается отсутствием привязки к конкретному железу или наличию специализированных ИИ-ядер. По крайней мере, это справедливо для варианта B, который, по данным Intel, обеспечивает сжатие текстур до 18 раз при потере визуального качества лишь около 7%. Для сравнения, вариант A даёт степень сжатия порядка 9 раз. Вариант B работает медленнее, однако сама возможность его использования на обычных GPU впечатляет — изначально технология разрабатывалась с расчётом на аппаратное ускорение через фирменные движки XMX от Intel. Визуальные результаты сжатия выглядят убедительно и при детальном сравнении практически неотличимы от исходного материала. Intel позиционирует TSNC как инструмент для разработчиков и выделяет сразу несколько практических преимуществ: Ускорение установки за счёт уменьшения размера файлов Более быстрая потоковая загрузка текстур при старте игры Стриминг текстур в режиме реального времени во время геймплея Загрузка текстур без необходимости хранить их в VRAM в несжатом виде Преимущества подобных технологий сжатия очевидны с точки зрения экономии полосы пропускания и дискового пространства. Вероятно, в недалёком будущем игры будут поставляться с поддержкой сразу обоих стандартов — Intel TSNC и NVIDIA NTC, — либо нечто подобное найдёт своё место непосредственно в DirectX и Vulkan. Главный вопрос пока остаётся открытым: как Intel TSNC покажет себя в реальных играх и сценах с трассировкой пути высокой сложности. NVIDIA при презентации куда активнее демонстрировала свою технологию на масштабных и детализированных сценах, тогда как Intel сосредоточилась на отдельных моделях и наборах текстур. Как бы то ни было, будет интересно наблюдать за тем, как эти нейросетевые технологии сжатия будут развиваться и в конечном счёте выйдут на рынок. Первоисточник: Chris Harper
148
10.04.2026 17:35:00

Exynos 2700 засветился в Geekbench: уже на уровне Exynos 2600, но ещё далеко не в полную силу

Флагманский чипсет следующего поколения от Samsung — Exynos 2700 — неожиданно рано появился в базе данных Geekbench. Примечательно, что даже на референсном устройстве и при заниженных тактовых частотах он уже демонстрирует результаты, сопоставимые с Exynos 2600. Samsung представила Exynos 2600 всего несколько месяцев назад в составе линейки Galaxy S26 — и уже работает над преемником. В Geekbench появилась запись с устройством, идентифицированным как «S5E9975 ERD» — судя по всему, референсная плата на базе Exynos 2700. Для сравнения: актуальный Exynos 2600 носит маркировку «S5E9965». Тестовое устройство оснащено GPU Xclipse 970 и 12 ГБ оперативной памяти — конфигурация, вполне характерная для флагманского уровня. Результаты тестирования В бенчмарке Exynos 2700 набрал 2 603 балла в одноядерном тесте и 10 350 баллов в многоядерном. Сами по себе цифры не производят впечатления: Exynos 2600 показывает примерно те же результаты, а нередко и превосходит их. Однако здесь важен контекст. Зафиксированные в тесте тактовые частоты ядер заметно ниже, чем у финального Exynos 2600. Прототип Exynos 2700 построен на дека-ядерной архитектуре с четырьмя кластерами: одно ядро работает на частоте 2,30 ГГц, четыре — на 2,40 ГГц, одно — на 2,78 ГГц и ещё четыре — на 2,88 ГГц. У Exynos 2600 prime-ядро разогнано до 3,80 ГГц, а три дополнительных производительных ядра работают на 3,25 ГГц. Разница колоссальная. Что это означает Тот факт, что ранний прототип Exynos 2700 при столь низких частотах уже не уступает серийному Exynos 2600 — весьма обнадёживающий знак. По мере доработки чипсета и выхода на финальные тактовые частоты его производительность должна существенно вырасти. Следить за тем, как будут меняться результаты на пути к финальному продукту, будет очень интересно. Первоисточник: Ricci Rox
161
09.04.2026 18:00:00

Dimensity 9600 Pro: производительность уровня десктопа в смартфоне — но какой ценой?

MediaTek, судя по всему, отказалась от первоначальных планов ограничиться одним чипсетом в линейке Dimensity 9600. Новая утечка сообщает о готовящейся версии Pro, которая появится во второй половине этого года — предположительно, как прямой ответ на Qualcomm Snapdragon 8 Elite Gen 6 Pro. По данным инсайдера, новый SoC нацелен на тактовую частоту 5,00 ГГц и обещает производительность уровня настольных компьютеров. Загвоздка одна: MediaTek пока не нашла способа его нормально охладить. Два «суперядра» вместо одного Если Dimensity 9500 использовал одно высокопроизводительное ядро, то Dimensity 9600 Pro получит сразу два таких «суперядра» — это должно заметно поднять как одноядерную, так и многоядерную производительность. Именно здесь и кроется компромисс: вдвое больше мощности означает вдвое больше тепла. Смартфоны конструктивно проигрывают настольным ПК с массивными радиаторами: в корпусе телефона можно разместить лишь парокамеру, а производители, желающие выжать максимум, могут дополнить её жидкостным охлаждением или даже активным вентилятором. Но и это не спасает полностью. Троттлинг неизбежен Несмотря на все ухищрения, температуру в узких рамках смартфонного корпуса не обуздать — чип будет вынужден снижать частоту до диапазона 4,00–4,20 ГГц. Отдельный фактор риска: в отличие от Qualcomm с её фирменными ядрами Oryon, MediaTek по традиции опирается на стандартные ядра ARM, которые могут оказаться менее эффективными с точки зрения энергопотребления, ускоряя тепловой троттлинг. Надежда на 2nm Тем не менее переход на техпроцесс TSMC N2P (2 нм) даёт MediaTek определённый запас по теплу — именно он может позволить чипу хотя бы кратковременно удерживать пиковые 5 ГГц. Ранее сообщалось, что Dimensity 9600 Pro получит конфигурацию кластера ЦП 2 + 3 + 3 — это станет первым подобным решением в истории компании. Параллельно ожидается и стандартная версия Dimensity 9600 с чуть более консервативными частотами. Подробности станут известны в ближайшее время. Dimensity 9600 Pro выглядит как амбициозный шаг MediaTek в сторону флагманского рынка, однако вопрос охлаждения остаётся ключевым камнем преткновения. Посмотрим, сумеют ли производители смартфонов найти инженерное решение, которое раскроет потенциал чипа в полной мере. Первоисточник: Omar Sohail
294
08.04.2026 17:00:00

Intel объединяет усилия с NVIDIA для создания процессора нового поколения

Intel и NVIDIA готовят партнёрство, которое может кардинально изменить рынок ноутбучных чипов. По информации от инсайдеров, перспективный чипсет Intel под кодовым названием Serpent Lake способен фундаментально переосмыслить возможности лэптопных процессоров — благодаря интеграции графики уровня NVIDIA RTX непосредственно в состав чипа. Что такое Serpent Lake? Serpent Lake — это гибридный чип Intel, который объединит процессорную архитектуру Titan Lake с графическими чиплетами NVIDIA RTX Rubin, произведёнными по 3-нм техпроцессу TSMC. С процессорной стороны конфигурация выглядит внушительно: 8 производительных и 16 энергоэффективных ядер на базе архитектур Griffin Cove и Golden Eagle. Главная же сенсация — в графической части: вместо собственных решений Arc, Intel может сделать ставку на технологии RTX от NVIDIA. Это не означает отказа от линейки Arc — речь идёт о конкретном продуктовом решении, призванном выделить Serpent Lake на фоне конкурентов. Отдельного внимания заслуживает подсистема памяти: чип предположительно получит поддержку 15 каналов LPDDR6, что серьёзно расширит пропускную способность и устранит традиционный для интегрированной графики узкий bottleneck. Инсайдеры также раскрыли название следующего поколения P-core архитектуры Intel — Copper Shark. Почему интегрированный GPU меняет правила игры? Традиционно графика уровня RTX существовала исключительно в виде отдельных, энергоёмких и габаритных видеокарт. Интеграция такого GPU непосредственно в кристалл процессора открывает принципиально новые возможности: Скорость — прямая коммуникация между CPU и GPU без задержек внешних шин Энергоэффективность — значительное снижение энергопотребления по сравнению с дискретными решениями Производительность — графика настольного класса в тонком и лёгком ноутбуке Когда ждать? Serpent Lake — не завтрашний день. Дорожная карта Intel предполагает несколько промежуточных поколений: в 2026 году выйдет Nova Lake, затем последуют Razer Lake и Titan Lake, и лишь в 2028–2029 годах придёт черёд Serpent Lake. К тому времени графический чиплет может быть основан на архитектуре NVIDIA Rubin или Rubin Next — что сделает Serpent Lake первым чипом не от NVIDIA, несущим GPU класса RTX. Вопрос о влиянии такой интеграции на итоговую цену устройств пока остаётся открытым. Однако очевидно одно: пользователи премиальных ноутбуков получат производительность дискретной видеокарты для игр и задач ИИ — без необходимости носить с собой отдельную громоздкую графику. Первоисточник: Shikhar Mehrotra
189
07.04.2026 17:00:00

NVIDIA представила возможное решение кризиса видеопамяти

На конференции GTC 2026 NVIDIA представила потенциальный ответ на кризис VRAM в современных играх: технология Neural Texture Compression позволила сократить потребление памяти в демонстрационной сцене с 6,5 ГБ до 970 МБ при практически неизменном качестве изображения. Разработка вселяет надежду в игровое сообщество, однако одновременно подпитывает критику в адрес прежней стратегии компании в области видеопамяти. Высококачественные текстуры, масштабные открытые миры и всё более продвинутые системы освещения неуклонно увеличивают требования современных игр к объёму VRAM. При этом ёмкость памяти на многих массовых видеокартах годами топталась на месте — или по меньшей мере не успевала за растущими аппетитами игр. Показательный пример — NVIDIA GeForce RTX 5060 среднего ценового сегмента: карта оснащена 8 ГБ VRAM. На фоне продолжающегося дефицита памяти это вряд ли можно назвать хорошей новостью для геймеров. Именно в таком контексте NVIDIA и представила на GTC 2026 возможное решение — Neural Texture Compression и Neural Materials. В основе NTC лежит принципиально иной подход к хранению текстур: вместо традиционного формата они сжимаются в компактное нейронное представление. Небольшая нейросеть, работающая непосредственно на GPU, восстанавливает необходимые графические данные в режиме реального времени. В демонстрации с тосканской виллой потребление памяти сократилось с 6,5 ГБ до всего 970 МБ — при этом, по заявлению NVIDIA, качество изображения осталось практически идентичным. Результаты впечатляют и могут реально помочь в решении проблемы нехватки VRAM. Помимо этого, игры могут стать «легче», обновления — компактнее, а загрузки — эффективнее в целом. Neural Materials работает по схожему принципу, но специализируется на свойствах материалов: в частности, на многослойных поверхностях с различными характеристиками отражения света. По словам NVIDIA, технология способна обеспечить прирост производительности до 7,7 раза при разрешении 1080p. Впрочем, пока она выглядит менее зрелой по сравнению с NTC. Реакция игрового сообщества на презентацию оказалась неоднозначной. В отличие от более спорных ИИ-решений — например, DLSS 5 — новая технология в комментариях на YouTube воспринимается преимущественно как реальный шаг вперёд. Тем не менее часть пользователей считает NTC не более чем «пластырем» на рану, которую сама NVIDIA и нанесла, — и полагает, что компании следует просто оснащать свои видеокарты большим объёмом VRAM. Первоисточник: Marius Müller
189
06.04.2026 18:00:00

Google представила открытую ИИ-модель Gemma 4 с поддержкой автономных агентов

Google в четверг анонсировала новую модель искусственного интеллекта Gemma 4. Первый представитель семейства Gemma 4 получил ряд существенных улучшений по сравнению с предшественниками. Если Gemma 3 делала акцент на текстовых и визуальных задачах, то новая итерация, по словам компании, привносит в опенсорс-модель агентные возможности и улучшенные механизмы рассуждения. Новая большая языковая модель (LLM) доступна в четырёх вариантах, распространяется через платформы Google для разработчиков и может быть загружена через сторонние репозитории для локального запуска. В официальном блоге компания подробно рассказала о модели Gemma 4. Она доступна в четырёх конфигурациях: Effective 2B (E2B), Effective 4B (E4B), 26B Mixture of Experts (MoE) и 31B Dense. Контекстное окно расширено до 256 тысяч токенов — вдвое больше, чем у Gemma 3 с её 128 тысячами. Кроме того, модель нативно обучена на более чем 140 языках. Ключевое изменение по сравнению с предыдущим поколением — переход на лицензию Apache 2.0, допускающую как академическое, так и коммерческое использование. Модель доступна напрямую через Google AI Studio и Vertex AI, а также для скачивания через Hugging Face, Kaggle и Ollama. Три главных нововведения Gemma 4 — продвинутые механизмы рассуждения, поддержка агентных сценариев и генерация кода. Улучшенное рассуждение подразумевает многоэтапное планирование и глубокую логику; заявлены улучшения в области математики и следования инструкциям. Модель также поддерживает вызов функций и структурированный вывод в формате JSON, что позволяет использовать её в качестве основы для ИИ-агентов. Помимо этого, Google утверждает, что модель способна генерировать качественный код для офлайн-использования, хотя её позиции по сравнению с проприетарными инструментами — такими как Claude Code и Codex — пока неочевидны. Очевидное преимущество здесь — бесплатное использование, а также приватность и безопасность при локальной обработке данных. Среди других заметных возможностей — нативная обработка видео и изображений с поддержкой произвольных разрешений. Google заявляет о поддержке визуальных задач, включая распознавание текста (OCR) и работу с диаграммами. Модели E2B и E4B также поддерживают нативный аудиовход для распознавания и понимания речи. Первоисточник: Akash Dutta
304
03.04.2026 15:30:00

Alienware анонсирует ПК Area-51 с AMD Ryzen 9 9950X3D2

Ранее компания уже упоминала этот процессор в спецификациях Area-51, однако затем объявила это ошибкой. Dell Alienware официально представила десктоп Area-51 на базе AMD Ryzen 9 9950X3D2. Dell стала одной из первых компаний, подтвердивших существование AMD Ryzen 9 9950X3D2 ещё до официального анонса. Впоследствии компания заявила, что это была ошибка, и речь шла о «Ryzen 7 9850X3D». Тем не менее появление конфигурации на базе Ryzen 9 9950X3D2 было лишь вопросом времени — сразу несколько источников подтверждали факт существования этого процессора. Сегодня официальный аккаунт Alienware X объявил о новой конфигурации десктопа Area-51 на базе флагманского 16-ядерного/32-поточного процессора архитектуры Zen 5 — Ryzen 9 9950X3D2. Этот чип стал первым, оснащённым двумя чиплетами X3D, суммарным объёмом кэша L3 192 МБ и общим кэшем 208 МБ, что обеспечивает превосходную производительность как в играх, так и в ресурсоёмких задачах. По большинству характеристик процессор схож с Ryzen 9 9950X3D, однако дополнительные 64 МБ кэша L3 и повышенный TDP до 200 Вт делают его заметно мощнее. По словам Dell, Area-51 с Ryzen 9 9950X3D2 поступит в продажу 22 апреля и станет самым производительным фирменным готовым десктопом компании. Подробные характеристики пока не раскрывались, однако можно ожидать топового железа: видеокарту до NVIDIA GeForce RTX 5090, до 64 ГБ оперативной памяти DDR5 в двухканальном режиме и накопители объёмом до 4 ТБ. Текущая конфигурация с Ryzen 7 9850X3D уже включает эти компоненты, поэтому флагманская версия вряд ли окажется скромнее. Корпус и внешний вид системы останутся без изменений — судя по опубликованным Alienware фотографиям. Первоисточник: Sarfraz Khan
164
02.04.2026 11:30:00

Линейка Intel Wildcat Lake слита в сеть: шесть SKU, конфигурация 1/2+4 ядра и TDP до 35 Вт

Самые мощные ультраэнергоэффективные чипы Intel будут работать в значительно более высоком диапазоне TDP по сравнению с предшественниками. Все утёкшие характеристики Intel Wildcat Lake — в этом материале. Характеристики Intel Wildcat Lake: 1/2 P-Core + 4 LP-E ядра, TDP 15–35 Вт, турбочастота до 4,8 ГГц и 2 ядра Xe3 в iGPU По мере приближения анонса Intel Wildcat Lake характеристики SKU начали появляться в социальных сетях. Последняя утечка подтвердила ряд параметров и стала, пожалуй, наиболее полным источником информации о линейке на сегодняшний день. Ранее в сеть попали данные о младшем SKU Wildcat Lake, однако тогда оставалось неясным, возможна ли конфигурация 1+4 ядра. Теперь стало известно: такой процессор действительно существует. Речь идёт об Intel Core 3 304 с конфигурацией 1 P-Core + 4 LP-E-Core и TDP 15 Вт. По всей видимости, 15 Вт — это базовый показатель TDP, тогда как в турборежиме энергопотребление значительно выше. В отличие от Alder Lake N и Twin Lake, линейка Wildcat Lake (она же серия Core 300) предусматривает диапазон TDP от 15 до 35 Вт — это существенно выше, чем у предыдущих поколений, работавших в диапазоне 6–7 Вт. Что касается числа ядер: за исключением Core 3 304, все SKU построены на конфигурации 2 P-Core + 4 LP-E Core, что соответствует ранее появлявшимся слухам. Флагманом линейки станет Core 7 360 с турбочастотой P-Core до 4,8 ГГц и турбочастотой LP-E-ядер до 3,6 ГГц. Базовая частота у всех SKU составит 1,5 ГГц для производительных ядер и 1,4 ГГц для LP-E-ядер. Важно отметить, что это те же ядра Cougar (Performance) и Darkmont (LP-E), что используются в линейке Panther Lake. В Wildcat Lake не будет классических энергоэффективных ядер (E-Core) — линейка строго придерживается конфигурации 1/2+4, как это видно на слайде. Встроенная графика представлена 2 ядрами Xe3 с турбочастотой до 2,6 ГГц. Тактовая частота GPU будет варьироваться в зависимости от SKU, а производительность в задачах искусственного интеллекта составит от 9 до 21 TOPS. Нейронный процессор (NPU) уступает тому, что предлагает Panther Lake, и обеспечит от 15 до 17 TOPS в задачах ИИ. Первоисточник: Sarfraz Khan
403
01.04.2026 15:30:00
Главная
Каталог
Избранное
0 Корзина
Войти