Новости про NVIDIA

NVIDIA планирует выпустить высокопроизводительный процессор в 2025 году

Компания NVIDIA планирует выйти на рынок центральных процессоров, предложив CPU высокого уровня производительности на базе архитектуры ARM, уже в следующем году. Выпуск CPU запланирован на сентябрь 2025 года, и он будет предназначен для премиального сегмента персональных компьютеров.

Этот новый процессор будет включать как CPU, так и GPU от NVIDIA. Спроектирован он будет для обеспечения наилучшей производительности ПК. После выпуска NVIDIA нацелит свои усилия на продвижение данного интегрированного решения до марта 2026 года, установив жизненный цикл продукта и готовность рынка.

Этот шаг демонстрирует стратегию NVIDIA как будущего конкурента Intel и AMD в сфере CPU. Применяя свой опыт в искусственном интеллекте и современных процессах производства, компания хочет застолбить себе место среди лидеров рынка. Важно отметить, что у NVIDIA есть неплохой опыт выпуска CPU с высокой производительностью. Речь идёт о Grace и Tegra. Первый из них создавался для ИИ-задач в центрах обработки данных и показывает отличные результаты, в то же время Tegra может служить отличным примером интеграции CPU и GPU на фоне неизменно высокой производительности.

Эксперты считают, что возможности NVIDIA действительно позволят ей повлиять на рынок ПК и потеснить в будущем доминацию Qualcomm, разрушив эксклюзивные договорённости последней с PC-сектором рынка.

NVIDIA готовится заменить GeForce Experience и Панель управления

Компнаия NVIDIA с марта разрабатывает новое приложения для управления настройками графики. Это приложение с очевидным названием NVIDIA App объединяет в себе функционал GeForce Experience и встроенную в драйвер Панель управления.

Пока точных сроков выпуска нового приложения нет, но скорее всего, это произойдёт до конца текущего года. Несмотря на продолжающийся перенос настроек, компания также вносит в приложение и новые функции. К примеру, теперь приложение позволяет активировать кодирование видео в AV1 со 120 к/с для высококачественного стриминга. Также появились возможность настраивать G-Sync и RTX HDR для многомониторных систем.

Пока приложение NVIDIA находится на этапе бета-тестирования, компания продолжает перенос оставшихся функций из GeForce Experience. После выпуска NVIDIA App, нынешние GeForce Experience и панель управления будут упразднены.

Утекли спецификации RTX 5080 и RTX 5090

Известный инсайдер kopite7kimi опубликовал спецификацию готовящихся видеокарт NVIDIA RTX 5090 и RTX 5080. Эти две модели будут первыми в серии карт Blackwell.

По его сведениям, NVIDIA RTX 5080 получит GPU с 10752 ядер CUDA, 256-битную шину памяти GDDR7 объёмом 16 ГБ. Тепловыделение карты составит 400 Вт. Всё это позволит карте быть на 10% быстрее, чем RTX 4090.

NVIDIA GeForce RTX 5090

Что касается RTX 5090, то она будет вдвое производительнее RTX 5080. Её GPU получит 21760 ядер CUDA, связанные с 32 ГБ GDDR7 с шиной 512 бит. TDP этой видеокарты составит 600 Вт, а значит её производительность будет урезанной. Такая карта будет требовать 2 6-контактных коннектора 12 В. Очевидно, что у карты будет огромный разгонный потенциал, но также очевидно, что оверклокеры столкнуться с большой проблемой эффективного охлаждения. В общем, это будет просто зверская карта, но и цена ей будет соответствующая.

NVIDIA: Искусственный интеллект стал неотъемлемым в компьютерной графики и науке

Перед Технологической конференцией в Сан-Франциско, которую организовал Goldman Sachs, исполнительный директор NVIDIA Дженсен Хуан заявил, что будущее компьютерной графики невозможно без искусственного интеллекта.

«Мы вычисляем один пиксель, а затем накладываем ещё 32, это невероятно. Таким образом мы галлюцинируем, если позволите, остальные 32, и это выглядит непрерывно стабильно, это выглядит фотореалистично, а картинка невероятна, производительность невероятна», — отметил Хуан.

При этом вычисление одного пикселя потребляет много энергии, в то время как наложение остальных 32 требует очень мало и может быть предельно невероятно быстро.

Исполнительный директор NVIDIA Джнсен Хуан

Снижение нагрузку на GPU за счёт наложения пикселей и создания дополнительных кадров с помощью ИИ и DLSS Frame Generation изменило игры. Конкурентное решение AMD, FSR, всё ещё полагается вычислительные средства масштабирования, хотя в будущем с RDNA4 компания может перейти также на ИИ-решение, чтобы лучше конкурировать с NVIDIA и Intel.

Кроме того, Хуан считает, что и для науки искусственный интеллект становится обязательным: «Работы, что мы проводим в робототехнике, цифровой биологии… просто каждая биотехнологическая компания что я встречал в наши дни построена [технологиях] на NVIDIA». «Маломолекулярная генерация, виртуальный скрининг. В смысле, просто всё это пространство будет изобретено заново, впервые с лекарствами, открытыми с помощью компьютеров благодаря искусственному интеллекту. Так что здесь проводится невероятная работа».

NVIDIA RTX 5060 Blackwell получат память GDDR7

В недавнем мероприятии, которое провёл китайский производитель ноутбуков Hasee, глава компании Ву Хаиджун раскрыл секреты о новой ноутбучной модели GeForce RTX 5060 Blackwell.

В ходе конференции было объявлено, что RTX 5060 для ноутбуков будет первой видеокартой на рынке, в которой будет применяться память GDDR7. На самом деле, эта информация соответствует ранним заявлениям, согласно которым все карты серии Blackwell будут использовать данный тип видеопамяти. Также Ву заявил, что RTX 5060 будет иметь производительность сравнимую с ноутбучной версией RTX 4070. В первую очередь, это касается растровых задач, а в задачах трассировки лучей даже превысит производительность предшественницы.

Ещё одним важным изменением станет снижение энергопотребления. Для сравнения, современная RTX 4060 потребляет 140 Вт, а ожидаемая RTX 5060 — 115 Вт. При этом снижение энергопотребления коснётся не только данной модели, а и всего ряда и составит 40—50 Вт.

Что касается GPU, то RTX 5060 будет использовать ядро GB206 с 8 ГБ памяти GDDR7 на скорости 28 Гб/с, по крайней мере, в самом начале.

NVIDIA и MediaTek хотят сделать G-Sync доступным

Компания NVIDIA наконец-то решила сократить ценовой разрыв между специализированными G-Sync и более доступными FreeSync моделями, анонсировав партнёрство с MediaTek, которая будет создавать специальный чип масштабирования для мониторов, который придёт на смену дорогому модулю G-Sync Ultimate от NVIDIA.

Благодаря использованию нового чипа от MediaTek, мониторы смогут использовать полный набор функционала технологии G-Sync Ultimate. При этом сама MediaTek является популярным производителем чипов для дисплеев, поэтому их внедрение для G-Sync позволит заметно снизить стоимость мониторов. Когда технология NVIDIA впервые была представлена, она добавляла к стоимости монитора 200 долларов. Кроме того, она требовала активного охлаждения в мониторе. Переход на ASIC-чип от MediaTek не только снизит стоимость, но и избавит от активного охлаждения.

Чипы G-Sync от MediaTek

Насколько же это будет дешевле конечным пользователям, пока судить рано. На цену могут повлиять различные факторы, к примеру, оплата лицензии MediaTek за реализацию FreeSync, цена которой также не определена.

Мониторы на базе G-Sync с чипами MediaTek получат также новую технологию Pulsar, которая обеспечит 4-кратное повышение чистоты изображения в движении с сохранением детализации. Первыми моделями таких мониторов будут Acer Predator XB273U F5, AOC Agon Pro AG276QS2 и Asus ROG Swift PG27AQNR. Все они — 27” дисплеи разрешением 1440p и кадровой частотой 360 Гц.

NVIDIA Blackwell задерживается из-за проблем конструкции

Похоже, что появления промышленных ускорителей серии Blackwell придётся подождать немного дольше. По данным изданий процессоры Blackwell откладываются на несколько месяцев из-за ошибок в конструкции, выявленных в ходе выпуска опытной партии.

На данный момент NVIDIA не анонсировала дату выпуска ускорителей Blackwell, хотя опытное производство уже началось. О задержке уже сообщили таким крупным партнёрам, как Microsoft. В отчёте Bloomberg сообщается, что NVIDIA будет разрабатывать новую конструкцию чипа и снова проводить все этапы верификации, после чего GPU будут представлены заново.

Из-за этой задержки процессоры Blackwell не выйдут в 1 квартале 2025 года. Примерно в то же время ожидалось и появление следующего поколения потребительских видеокарт GeForce, и пока не ясно, повлияет ли задержка с Blackwell на потребительский сегмент.

Данная проблема может обойтись NVIDIA довольно дорого. Только в 2024 году компания планировала выпустить почти полмиллиона чипов, а в следующем — от 1,5 до 2 миллионов. Учитывая, что каждый GPU B100 продаётся за 30—35 тысяч, а GB200 за 60—70 тысяч долларов США, даже незначительное снижение продаж больно ударит по финансовому благополучию NVIDIA.

NVIDIA предлагает генерировать материалы в играх с помощью ИИ

В современных играх материалы, такие как металл, стекло или ткани, отображаются фактически с фотореалистичной точностью, однако это довольно тяжёлая задача для видеокарты. К тому же, реалистичность достигается за счёт трассировки лучей, что так же требует значительных вычислительных ресурсов.

Компания NVIDIA предложила новый подход к этому вопросу. На выставке SIGGRAPH 2024 она представила технологию под названием Real-Time Neural Appearance Models, «нейронную систему материалов, работающую полностью в реальном времени». Эта технология нацелена на добавление реалистичности к материалам в реальном времени, резко увеличивая производительность, по сравнению с традиционным рендером. По-простому это значит, что объекты в играх будут выглядеть ещё лучше, а обрабатываться это будет быстрее.

Новый метод рендера

На представленном примере компания показала керамический чайник с металлической ручкой. При этом картинка была настолько детальна, что на поверхности были видны отпечатки пальцев, пыль и разводы. «ИИ модель точно изучает детали керамики, неидеальность глазури, отпечатки пальцев, пятна и пыль», — написала NVIDIA, — «Наша нейронная модель способна сохранить эти сложные свойства материалов будучи при этом быстрее, чем традиционные многослойные материалы».

Варианты рендера материалов

И если посмотреть на представленные текстуры в высоком разрешении, например, 16K×16K, то можно понять, насколько эффективно представленный ИИ позволяет воссоздавать изображения.

Чайник с ИИ рендером

Технология работает в реальном времени с применением трассировки пути на базе Tensor Core. Благодаря этому можно заметно ускорить отображение материалов с помощью ИИ даже используя современные видеокарты, причём NVIDIA демонстрировала даже работу технологии на GeForce RTX 2080 Ti. При этом скорость работы увеличивается в 24 раза, по сравнению с традиционными шейдерами. Похоже, что RTNAM станет очередным знаковым этапом развития индустрии, как недавно им стал DLSS.

NVIDIA готовит RTX 3050 A на базе Ada Lovelace

Компания NVIDIA работает над новой видеокартой RTX 3050 A, в основе которой ляжет графический процессор AD106 (Ada Lovelace). По крайней мере такие слухи начали циркулировать в Сети.

Этот переход ознаменует отказ от чипов Ampere в картах серии RTX 30 и станет началом перехода на новые поколения GPU. Официально об этом не сообщается, однако в последнем драйвере компании и базе данных PCI ID появилась видеокарта GeForce RTX 3050 A Laptop.

NVIDIA Ada Lovelace

Выбор процессора AD106 примечателен, ведь в нём больше транзисторов, чем в нынешнем GA107, установленном в RTX 3050 и ноутбучных RTX 4050. В то же время AD106 используется в настольной RTX 4060 Ti и ноутбучной RTX 4070. В процессоре имеется 22,9 миллиарда транзисторов, 4608 ядер CUDA, что намного больше, чем в GA107 с 8,7 миллиардами процессоров и 2560 ядер CUDA и AD107 с 18,9 миллиардами транзисторов и 3072 ядрами CUDA.

Такой переход наверняка позволил был резко поднять производительность, но наверняка NVIDIA использует сильно урезанные варианты чипа, чтоб сохранить прежний уровень производительности. Тем не менее, переход от процесса Samsung 8N в чипах Ampere к TSMC 4N в AD106 может заметно повлиять на энергопотребление, а значит, на срок автономной работы ноутбуков.

Производители часто используют плохую термопасту в видеокартах

Igor’s Lab опубликовал отчёт, в котором высветил ряд проблем с перегревом видеокарт. И причиной тому является использование некачественной термопасты.

Специалисты провели глубокий анализ причин перегрева множества GPU разных производителей и выяснили, что зачастую производители используют термопасту, которая не соответствует стандартам. Проблема касается множества производителей.

Из-за плохой термопасты перегрев начинает происходить уже через несколько месяцев эксплуатации. Поначалу карты работают хорошо, но очень быстро качество охлаждения ухудшается. Пользователи жаловались, что даже такие модели, как RTX 4080, страдали от перегрева в 100° C, что приводит к троттлингу.

Igor’s Lab протестировал видеокарты Manli Geforce RTX 4080 16GB Gallardo и Asus RTX 4080 TUF Gaming и установил, что производитель применил термопасту с крупными частицами оксида алюминия и маслянистой жидкостью. В результате, тонкий слой такой пасты работает неплохо, однако быстро деградирует, приводя к перегреву GPU.

Замена термопасты на более качественную решает проблему, однако это непростая процедура, особенно для неопытных пользователей, ведь для этого требуется разборка видеокарты. Кроме того, такие манипуляции лишают карту гарантии. С другой стороны, некоторые производители снимают карты с гарантии в случае перегрева, так что сложившаяся проблема комплексная, и производителям стоит предпринять меры для её решения.