Новости по теме «NVIDIA анонсирует AI Eureka»

NVIDIA применит ИИ в своих драйверах

Согласно свежим слухам, компания NVIDIA готовит новые драйверы с повышенной производительностью благодаря оптимизациям от искусственного интеллекта.

Технически, искусственный интеллект уже внедрён в текущие драйверы видеокарты, однако в будущем масштаб внедрения ИИ будет куда большим. Утверждается, что дальнейшие оптимизации ИИ могут быть использованы для фокусирования на «инструкциях, пропуске данных, использовании аппаратного обеспечения, многопоточности и настройках».

Не совсем понятно, как оптимизации ИИ будут работать на стороне пользователя, ведь пользователи уже используют профили оптимизации для разных игр, полученные из GeForce Experience и построенные на основе широкой базы данных различных конфигураций.

Оптимизации драйверов NVIDIA

Нечто похожее есть и у AMD, которая недавно анонсировала технологию HYPR-RX, также включающую и Radeon Super Resolution и сниженные задержки.

В целом же сообщается, что оптимизации NVIDIA позволят до 30% поднять производительность, а в среднем — на 10%. Привязки к конкретной технологии нет, а потому не ясно, будут ли эти оптимизации работать только на видеокартах RTX, или же и на более старых ускорителях.

NVIDIA вместе с Ubisoft показали неигровых персонажей с ИИ

Компания NVIDIA в сотрудничестве с Ubisoft продемонстрировала работу искусственного интеллекта у неигровых персонажей в видеоигре.

Разработчики игр рассматривают ИИ для разных способов ускорения процессов разработки. Создание фоновых и неигровых персонажей находятся на первом месте. И новый инструмент NVIDIA ACE позволяет создателям игр быстро генерировать голоса NPC с полноценной лицевой анимацией.

Разговор с NPC

Такая демонстрация была проведена в ходе GDC. Используя InWorld Character Engine и технологии LLM разработчики могут создавать базу знаний и стиль разговора для отдельного NPC. Затем инструмент NVIDIA Audio2Face использовался для быстрой генерации в реальном времени лицевой анимации на основе голосовой дорожки.

Старший вице-президент Ubisoft по производственной технологии Жилеметт Пикар отметил: «Генеративный ИИ обеспечит игровой опыт, который ещё предстоит представить, с более умными мирами, проработанными персонажами и быстрыми и адаптивными нарративами. Благодаря партнёрству с NVIDIA в нашем NEO NPC прототипе решение NVIDIA Audio2Face помогло нам создать более глубокое погружение посредством анимации в реальном времени с поистине импровизируемым разговором с NPC».

Демонстрация призвана показать ИИ-инструменты, которые подготавливаются для разработчиков. Некоторые уже используют ИИ для озвучки. И нет сомнений, что скоро ИИ будет использован для создания фоновых персонажей и NPC, выдающих квесты.

NVIDIA: для ИИ будущего нам нужна энергия с 14 разных планет

Компания NVIDIA видит огромные перспективы в отрасли искусственного интеллекта, ожидая получить прибыль от этого сегмента на уровне 22 миллиардов долларов.

Фирма продолжает постепенно наращивать объёмы производства благодаря устранению проблем с поставками комплектующих, что ранее сдерживало многие правительственные агентства от внедрения ИИ на основе аппаратного обеспечения NVIDIA. Одним из таких факторов стало внедрение производителем микросхем TSMC новой технологии упаковки CoWoS.

Если вы думаете, что у нас уже много ИИ, то это не так. Сейчас компания использует все свои разработки, включая 3D + VR + RGB + ray tracing, одновременно. Глава компании Дженсен Хуан считает, что в плане взрывного развития ИИ мы переживаем первый год в ожидающемся 10-летнем цикле: «Ускоренные вычисления и генеративный ИИ столкнулись с резким ростом. Спрос растёт по всему миру у компаний, отраслей и наций». Также он отметил, что NVIDIA ожидает быстрый рост: «Мы находимся на первом году генеративного ИИ. Моё предположение — мы на самом деле находимся на первом году 10-летнего цикла развития этой технологии в абсолютно каждой отрасли и нации».

При этом индустрию ожидают и вызовы, связанные с развитием технологий производства и снижения энергопотребления: «если вы предположите, что компьютеры никогда не будут быстрее, то вы придёте к выводу, что нам потребуется 14 различных планет и три галактики и 4 больше Солнц для питания этого всего», — заявил Хуан.

NVIDIA запускает чат с RTX для владельцев видеокарт RTX 30/40

Компания NVIDIA запустила новый офлайн чат-бот «Chat with RTX» на базе искусственного интеллекта, который доступен для владельцев видеокарт серий RTX 30 и RTX 40.

Этот чат-бот работает локально, используя возможности ИИ видеокарт. Он предлагает пользователям возможность проанализировать документы, изображения и видео в поисках важной информации. При этом инструмент является автономным, что значительно повышает уровень безопасности.

Чат с RTX

Чат с RTX является бесплатным инструментом, который NVIDIA распространяет как технологическое демо. В результате все владельцы подходящих видеокарт могут дома экспериментировать с искусственным интеллектом.

Для работы с инструментом требуется видеокарта серии RTX 30 или RTX 40 с 8 ГБ памяти. Таким образом, под требование не подпадают карты серии RTX 20, а также новая RTX 3050 6GB. Работает бот в операционной системе Windows 11 с минимум 16 ГБ оперативной памяти. Скачать бота можно на сайте компании. Размер инсталлятора составляет 35 ГБ, и, по правде говоря, — это не очень большой объём для инструмента подобного рода.

NVIDIA готовит к выпуску технологию RTX TrueHDR

Компания NVIDIA вносит последние изменения в технологию под названием RTX TrueHDR, которая позволяет конвертировать SDR-игры в HDR в реальном времени, используя Tensor-ядра RTX-карт.

Новая функция появилась в драйвере NVIDIA Geforce Game Ready, и в целом она похожа на свежую функцию RTX Video. Только вместо того, что преобразовывать видео SDR в HDR, технология преобразовывает кадры в игре.

NVIDIA RTX Video

По мере того, как всё большее количество мониторов выпускаются с поддержкой HDR, возможность использования такой функции даст весомое преимущество для NVIDIA, позволяя превратить старые игры в куда более зрелищное шоу.

К сожалению, пока о точных сроках выпуска технологии RTX TrueHDR от NVIDIA ничего не известно.

NVIDIA выпускает HPC-модуль HGX H200

В ходе конференции SC23 компания NVIDIA представила новый вычислительный модуль HGX H200 — ведущую вычислительную платформу ИИ. Этот модуль обещает заметный прирост в производительности генеративных ИИ благодаря новой архитектуре NVIDIA Hopper.

Модуль H200 стал первым графическим процессором, где применена HBM3e-память объёмом 141 ГБ с пропускной способностью 4,8 ТБ/с, то есть, вдвое больше и в 2,4 раза быстрее чем у предшественника NVIDIA A100. Будучи собранным в систему, NVIDIA HGX H200 может содержать до 1,1 ТБ HMB3e-памяти. Объединяются модули H200 посредством сверхбыстрой шины NVLink-C2C.

Ускоритель NVIDIA HGX H200

По словам NVIDIA, системы на основе H200 появятся у крупнейших производителей серверов во II квартале 2024 года.

NVIDIA готовит GPU H100 с 94 ГБ памяти

Похоже, что графический процессор H100 от NVIDIA, ориентированный на вычисления и искусственный интеллект, скоро получит обновление.

Процессор H100 — это самое производительное предложение, доступное в нескольких вариантах: H100 PCIe, H100 SXM и H100 NVL (со спаренным GPU). Сейчас H100 оснащён 80 ГБ оперативной памяти HBM2E, как в версии PCIe, так и SXM5. Лишь версия H100 NVL оснащается 188 ГБ HBM3, что означает спаренную карту с 94 ГБ памяти. Однако в скором времени, NVIDIA может выпустить одиночные версии акселератора с 94 ГБ и 64 ГБ памяти, о чём гласят свежие записи в PCI ID Repository.

Ускорители NVIDIA H100

В PCI ID Repository появились две записи: «Очень прошу добавить H100 SXM5 64 GB в 2337» и «Очень прошу добавить H100 SXM5 94 GB в 2339». Это означает, что NVIDIA может готовить новые версии H100.

В сентябре 2022 года появились сообщения, будто NVIDIA готовит вариацию H100 со 120 ГБ памяти, однако официального подтверждения этому так и не появилось. Вполне возможно, что соответствующие PCIe ID появились исключительно в лабораториях, куда соответствующее оборудование передавалось на тестирование. Будут ли новые версии доступны в продаже, покажет только время.

Генеративный ИИ NVIDIA позволяет общаться с неигровыми персонажами

Компания NVIDIA представила технологию под названием Avatar Cloud Engine (ACE), которая позволит игрокам общаться с неигровыми персонажами (NPC) и получать соответствующий ответ.

Технология генеративного ИИ была представлена на Computex в видеоролике под названием Kairos. В нём показан мрачный магазинчик уличной еды, где торгуют раменом. Ролик создан со всеми передовыми технологиями в области графики, и, честно говоря, визуальная составляющая куда более эффектна, чем ИИ.

Тем не менее, в демонстрационном ролике нам показывают, как NPC, торговец раменом, по имени Джин, общается с игроком:

— Привет Джин, как ты?
— К сожалению, не очень.
— И почему?
— Я беспокоюсь о преступности вокруг. В последнее время она ухудшилась. Мой магазинчик рамена оказался под перекрёстным огнём.

Да, диалог вышел каким-то закостенелым. Наверное, ChatGPT справился бы лучше. Однако идея, заключающаяся в произвольном вопросе к NPC и ответе по теме, выглядит весьма интересной.

Демонстрация подготовлена NVIDIA в партнёрстве с Convai. Технология ACE может работать как в облаке, так и локально (конечно же, на видеокартах NVIDIA). Для построения, настройки и выпуска языковой модели использовалась NVIDIA NeMo, которую можно адаптировать для беседы с учётом сюжетной роли NPC, сохраняя меры безопасности для несоответствующего общения. Также эта технология внедряет распознавание речи и преобразование текста в речь при помощи инструмента Riva, а применение NVIDIA Omniverse Audio2Face обеспечивает «постоянное создание яркой лицевой анимации игрового персонажа, для соответствия слежения губами за любым текстом».

MarioGPT использует ИИ для создания новых уровней в Mario

Как только не изгалялись над игрой Super Mario. И вот, теперь кому-то в голову пришла идея использовать искусственный интеллект для создания новых уровней в игре.

Шиям Судхакаран, Мигель Гонзалес-Дуку, Клэр Глануа, Матиас Фраибергер, Елиас Наджарро и Себастиан Риси создали MarioGPT, открытый генератор уровней по описанию, для чего применили Большие Языковые Модели.

Super Mario Bros.

MarioGPT — это оптимизированная модель GPT2, использующая distilgpt2 натренерованный в Super Mario Bros и Super Mario Bros: The Lost Levels. Данный ИИ способен генерировать уровни по простому текстовому запросу, как показано на скриншотах.

Уровни в Super Mario, сгенерированные по запросу к ИИ

Пока возможности ИИ для создания уровней Mario весьма скромные. Это требует знаний в программировании на Python и редактировании ROM, так что вряд ли вы сможете поиграть в новый уровень одной лишь кнопкой и устным запросом. Тем не менее, у разработчиков MarioGPT далеко идущие планы.

Google хочет выпустить аналог ChatGPT

Сундар Пичаи, исполнительный директор Google, рассказал о планах компании по интеграции технологии искусственного интеллекта в поиске и прочих продуктах.

В ходе конференции по результатам IV квартала Пичаи сообщил, что в скором времени пользователи смогут напрямую взаимодействовать с новейшей и наиболее мощной моделью, как с компаньоном, для ведения поиска совершенно новым образом.

По словам директора, компания выпустит технологию чат-бота в общий доступ в «ближайшие недели и месяцы». В Google Search будет использоваться LaMDA (Language Model for Dialogue Applications), собственная языковая модель, которая обеспечит «фактажный» и традиционный ответ на запрос. Технологический гигант готовится продемонстрировать над чем они работают в плане ИИ нынешнего поколения, а также представил планы по интеграции технологии в серию продуктов, включая передовые ИИ-возможности для Gmail и Docs.

Таким образом Пичаи подчеркнул возможности искусственного интеллекта и то, как мир готов взаимодействовать с ним, отметив принятие энтузиастами возможностей ChatGPT от OpenAI.

NVIDIA наращивает силы в области центральных процессоров

Компания NVIDIA решила расширять свои исследования и разработки в области центральных процессоров, для чего нанимает специалистов в Израиле.

Майкл Кэгэн, технический директор NVIDIA, подтвердил, что компания создаёт новую группу по центральным процессорам в своих усилиях по увеличению присутствия в быстро меняющемся рынке HPC. В прошлом году, в апреле, Дзень-Хсунь Хуан представил первый центральный процессор компании на основе архитектуры ARM, который был назван Grace. Этот процессор готовится к выпуску в 2023 году.

Процессор NVIDIA Grace

«Израиль, со своим уникальным набором талантов, является ключевым игроком в мировой технологической экосистеме, и мы восхищены созданием новой группы по CPU здесь. Мы видим в будущем дальнейший рост нашей локальной научно-исследовательской деятельности в этой области и в нашей громадной работе по поддержанию локальной экосистемы посредством уникальных программ для стартапов и разработчиков».

— Майкл Кэгэн, технический директор NVIDIA.

Новая процессорная группа будет работать наряду с другими командами в Израиле, которые заняты созданием высокоскоростной сети, технологиями HPC и процессорами обработки данных NVIDIA.

После приобретения Mellanox в 2020 году израильская команда NVIDIA выросла на треть до 2800 рабочих. Для новой команды будут наняты ещё сотни людей.

NVIDIA представила ИИ, генерирующий картинку по описанию

Одна картинка, стоящая тысячи слов, теперь может быть создана описанием в три-четыре слова. Это стало возможно благодаря инструменту GauGAN2, свежему проекту NVIDIA Research, который использует искусственный интеллект.

Посмотреть, как он работает можно в ролике на YouTube, а также можно опробовать его самостоятельно на NVIDIA AI Demos, на котором посетителям предлагаются все свежие разработки компании, использующие искусственный интеллект.

Эскизирование с помощью GauGAN

Модель глубокого обучения, стоящая за GauGAN, позволяет каждому воплотить свои мечтания в фотореалистичный шедевр, и теперь это проще, чем когда-либо. Просто напишите фразу, типа «закат на пляже», и ИИ сгенерирует сцену в реальном времени. Можно добавлять и прилагательные, например «закат на галечном пляже», или заменить «закат» на «полдень» или пасмурный день. И модель моментально модифицирует картинку.

Paint Me a Picture: NVIDIA Research Shows GauGAN AI Art Demo Now Responds to Words

Нажав на кнопку, пользователи могут сгенерировать сегментную карту, высокоуровневый план, отображающий размещение объектов на сцене. Оттуда можно изменить схему, подстроить сцену, добавив наброски меток, типа положения неба, деревьев, скал и рек. Таким образом, смарт-кисть работает совместно со словесным описанием при генерации сцены.

NVIDIA провела фейковую презентацию

Все помнят кухню Дженсена Хуана, на которой он проводил все презентации NVIDIA во время пандемии. Но оказывается, презентация, проведённая весной этого года, была абсолютным фейком. И касается это не только кухни, но и самого Дженсена.

В ходе GTC 2021 Хуан провёл презентацию на своей кухне, и никто не догадался, что это была виртуальная кухня. И виртуальный Хуан. Единственная реальная вещь во время презентации — это голос. «Всё, кроме 14 секунд в течение презентации длившейся 1 час и 48 минут, с 1:02:41 до 1:02:55, Хуан говорил сам», говорится в посте NVIDIA. Таким образом, хоть Дженсен и его кухня были виртуальными моделями, голос, который вы слышали на презентации, был настоящим.

Исполниельный директор NVIDIA Дженсен Хуан в ходе презентации GTC 2021 на своей кухне.

В апреле 2021 года эта презентация не вызвала ни малейших подозрений среди десятков тысяч профессионалов в индустрии и обозревателей, обслуживавших мероприятие. Воссоздание известной сцены было выполнено при помощи NVIDIA Omniverse.

В своём блоге компания рассказала о процессе воссоздания пространства, к которому энтузиасты успели привязаться. «Кухня Дженсена» была пандемическим плацдармом для фанатов PC. «Для создания виртуального Дженсена команды провели полный скан лица и тела для создания 3D-модели, а затем обучили ИИ его мимике, жестам и эмоциям, добавили немного ИИ-магии для придания своему клону реалистичности».

GTC 2021 Keynote with NVIDIA CEO Jensen Huang

«Цифровой Дженсен был затем размещён в копии своей кухни, которая была реконструирована с использованием Omniverse, удивив аудиторию и заставив её в конце задуматься — какая часть презентации была реальной, а какая — рендером».

Теперь мы знаем всю правду. Реальности не существовало вовсе.

NVIDIA выпускает публичную бета-версию Canvas

Компания NVIDIA выпустила свою первую публичную бета-версию приложения Canvas, инструмента на базе искусственного интеллекта, который превращает наброски в высококачественные художественные изображения, используя для этого силу графических карт RTX.

Если вы хотите создать фантастический ландшафт, приложение NVIDIA Canvas идеально вам подойдёт. Оно позволяет пользователям воплотить в реальность практически любой художественный замысел.

NVIDIA Canvas

Для её применения пользователь выбирает материал для рисования: траву, камни, воду, туман, снег, деревья и тому подобное. После того, как пользователь сделает свой набросок, инструменты искусственного интеллекта воссоздадут фотореалистичное изображение.

Интерфейс утилиты NVIDIA Canvas

Утилита позволяет конвертировать полученные изображения в файлы PSD для дальнейшей обработки в Adobe Photoshop.

Introducing the NVIDIA Canvas App | NVIDIA Studio

Поскольку для работы программы нужен искусственный интеллект, то она работоспособна лишь с видеокартами NVIDIA серии RTX, будь то GeForce или Quadro.

Загрузить редактор NVIDIA Canvas можно на сайте компании.

NVIDIA GANverse3D создаёт 3D-модели из фотографий

Исследователи из компании NVIDIA представили новый инструмент под названием GANverse3D — расширение NVIDIA Omniverse, которое может превращать плоские изображения в трёхмерные объекты.

Эти полноценные модели могут быть визуализированы посредством Omniverse. По мнению разработчиков, этот метод создания моделей должен помочь архитекторам, художникам и разработчикам видеоигр. И хотя создаваемые модели выглядят упрощённо, как в старых видеоиграх, художники их могут доработать и придать достойный внешний вид.

Машина Рыцаря дорог

Учёные NVIDIA AI Research Lab из Торонто охарактеризовали работу GANverse3D как «раздувание плоских изображений в реалистичные 3D-модели». Аббревиатура GAN расшифровывается как Generative Adversarial Network, это набирающая популярность технология в сфере ИИ. Объединяя полученные данные с информацией из реального мира, система может создавать модели неплохого качества, как известного ей типа, так и неизвестного. Главным преимуществом NVIDIA GANverse3D является то, что система больше не полагается на изображения, полученные с разных ракурсов, как это было ранее.

GANverse3D: Knight Rider KITT Re-created with AI by NVIDIA

До того, как воссоздать машину Рыцаря дорог, NVIDIA провела обучение своего ИИ с помощью множества изображений, полученных с разных углов. При этом никаких баз данных 3D-моделей не применялось. Полученная модель целиком и полностью является результатом работы искусственного интеллекта.

NVIDIA анонсирует центральный процессор Grace

В ходе конференции GTC21 компания NVIDIA анонсировала свой первый центральный процессор, предназначенный для центров обработки данных. Процессор под именем Grace назван в честь пионера американских компьютеров Грейс Хоппер.

Процессор основан на архитектуре ARM и предназначен для обработки задач ИИ и HPC. В целевых задачах, по уверениям NVIDIA, Grace «обеспечит десятикратную производительность нынешних самых быстрых серверов», будучи тесно связанным с GPU NVIDIA.

Таким образом, теперь в дополнение к GPU и DPU компания основывает третье направление процессоров, наметив в планах изменить архитектуру центров обработки данных для современных средств искусственного интеллекта. «Теперь NVIDIA компания трёх чипов».

Вычислительный модуль NVIDIA Grace

В своей речи на конференции, директор NVIDIA Дженсен Хуан отметил, что речь идёт о ЦОД «гигантских масштабов». Похоже, что сосредоточившись на этом направлении компания нашла своё место. Инженеры установили, что в задачах, таких как обучение НЛП-моделей следующего поколения требуется более триллиона параметров, и в таких условиях CPU Grace и GPU NVIDIA могут обеспечить десятикратный прирост производительности, по сравнению с превосходной системой NVIDIA DGX на базе процессора x86.

Диаграмма процессора Grace

Среди других ключевых характеристик системы на базе Grace отмечена поддержка NVLink для обеспечения скорости соединения 900 ГБ/с между Grace и GPU (до 30 раз быстрее, чем в конкурирующих серверах), подсистема памяти LPDDR5x для высокой скорости и эффективности, унифицированный кэш, а также память HBM для GPU.

Две суперкомпьютерные лаборатории уже заявили о планах по использованию Grace. Это Швейцарский национальный суперкомпьютерный центр и Национальная лаборатория Лос-Аламос. Они планирует запустить суперкомпьютеры на базе Grace в 2023 году.

NVIDIA исправит видео в онлайн конференциях

Компания NVIDIA анонсировала новую платформу видеоконференций для разработчиков под названием NVIDIA Maxine, которая исправляет наиболее распространённые проблемы в видеосвязи.

Служба Maxine будет обрабатывать видео, используя облако с ИИ, основанным на GPU NVIDIA. Благодаря ему компания будет корректировать лицо и взгляд пользователей, чтобы они всегда смотрели в камеру, снижать требования в видео «до одной десятой от требований стандартного потока H.264», передавая лишь «ключевые лицевые точки», а также за счёт повышения разрешения видео. Другие функции, предлагаемые платформой, включают корректировку света, перевод в реальном времени и расшифровку речи, а также анимацию аватара.

Коррекция видео при помощи NVIDIA Maxine

И хотя все эти возможности наверняка согреют сердце фанатов NVIDIA, в данной услуге нет ничего особо нового. Ранее Microsoft и даже Apple внесли некоторые технологии в Surface Pro X и FaceTime, которые изменяют взгляд собеседника, а Skype давным-давно имеет возможность синхронного перевода.

В отличие от похожих решений, Maxine не является потребительским продуктом, он предлагается для других компаний. В NVIDIA уже объявили, что заключили партнёрское соглашение с Avaya, которая воспользуется некоторыми возможностями платформы.

NVIDIA создала ИИ-программиста

Исследовательское подразделение компании NVIDIA объявила об очередном достижении. Её искусственный интеллект GameGAN смог воссоздать полный функционал игры Pac-Mac без доступа к игровому движку.

Модель обучалась путём просмотра 50 000 игровых видео. После чего искусственный интеллект создал свою версию игры. Игра Pac-Man, созданная GameGAN, выглядит и ощущается как и оригинальная, только разрешение у неё заметно ниже.

«Это первое исследование в попытке имитировать игровой движок внутри нейронной сети на базе GAN», — заявил Сюн-Вук Ким, исследователь NVIDIA и главный автор проекта. «Мы хотели увидеть, сможет ли ИИ понять правила и окружение лишь смотря на игровой экран прохождения. И он сделал это».

Pac-Man

По мере того, как искусственный агент играет в игру, генерированную GAN, GameGAN реагирует на действия, генерируя новые кадры игрового окружения в реальном времени. Более того, GameGAN может даже создавать уровни, которых никогда не существовало, если его обучить на скриншотах из различных уровней игры.

По словам авторов, этот функционал может быть использован для генерации новых уровней, а также для помощи в создании новых игр и тренировки автономных машин.

NVIDIA GameGAN: Celebrating 40 Years of PAC-MAN with Game-Changing AI

NVIDIA выпускает плагин шумоподавления RTX Voice

Владельцам видеокарт Turing доступны ядра Tensor Core и RTX, но сколько есть игр, поддерживающих RTX или DLSS/DLSS 2.0? По сути, эта технология пока мало востребована, и компания NVIDIA предложила её новое применение.

Технология NVIDIA RTX Voice использует возможности графических процессоров Turing для удаления фоновых шумов из трансляции, голосовых чатов и видеоконференций. Сейчас доступна бета версия этого плагина. В описании говорится, что в RTX Voice используются «функции ИИ», помогая увеличить качество звука.

Настройка плагина RTX Voice

Плагин RTX Voice поддерживает целый ряд приложений для общения, включая OBS Studio, XSplit Broadcaster, XSplit Gamecaster, Twitch Studio, Discord, Google Chrome, WebEx*, Skype*, Zoom* и Slack* (приложения, отмеченные «*» могут иметь некоторые проблемы с RTX Voice).

Установка микрофона RTX Voice

При включении плагина можно избавиться от фоновых звуков, включая щелчки от клавиатуры, шум от других геймеров, сидящих рядом и прочего окружения.

Чтобы воспользоваться плагином нужно иметь видеокарту NVIDIA GeForce RTX или Quadro RTX, драйвер версии 410.18 или новее, операционную систему Windows 10. После установки RTX Voice её нужно выбрать в качестве микрофона в приложении для конференции.

Несмотря на эти требования многие обозреватели уже отметили, что плагин прекрасно работает и на видеокартах без RTX.

NVIDIA выпускает SDK RTX Global Illumination (RTXGI)

Компания NVIDIA выпустила первую версию среды разработки RTX Global Illumination. Благодаря этому SDK разработчики игр, учёные и художники смогут создавать масштабируемые решения для внедрения трассировки лучей без потерь времени, световых утечек или высокой стоимости рендера.

В SDK есть ряд ключевых возможностей, которые облегчат процесс разработки. Для начала SDK предлагает эффективное использование памяти и вычислительные шейдеры, поддержку множества систем координат и захвата событий движка и геймплея для приоритезации обновления освещения. В отличии от традиционных решений глобального освещения, RTXGI использует трассировку лучей в реальном времени для обновления информации на лету. Это позволяет SDK избавиться от предварительных вычислений.

NVIDIA RTX Global Illumination

Более того, RTXGI временно аккумулирует и фильтрует информацию о фильтрах освещения и сведения о дистанции в реальном времени на основе зондирующей структуры данных. Это создаёт высококачественный световой кэш со многими отражениями, завершённой визуальной информацией без негативного влияния на производительность. Также SDK обеспечивает работу без утечек света и теней, ему не требуются дополнительные блокировщики.

Среда разработки RTXGI поддерживается на любом GPU с DXR, включая видеокарты серий GeForce RTX 20, GTX 1660 и GTX 10.

NVIDIA выпускает Deep Learning Super Sampling 2.0

Компания NVIDIA анонсировала вторую версию средства повышения масштабирования DLSS.

В основе DLSS 2.0 лежит нейронная сеть, которая использует яра NVIDIA RTX Tensor Core для повышения частоты кадров и генерации резких кадров, качество которых соответствует или превышает рендер в родном разрешении.

Технология была обучена на десятках тысяч изображений с высоким разрешением. После обучения, искусственный интеллект в DLSS 2.0 может брать изображения с низким разрешением и конструировать изображения с высоким разрешением.

Сравнение изображения с включённой и выключенной DLSS

Производительность, при использовании Tensor Core, может достигать 110 терафлопс. При этом DLSS 2.0 работает вдвое быстрее предшественника. По словам NVIDIA, имеется возможность одновременной работы 3D игры и сети с глубоким обучением в реальном времени. Более того, DLSS 2.0 используется специальные техники, которые позволяют обсчитывать только четверть или половину пикселей, сохраняя качество, сравнимое с родным разрешением.

Первая версия DLSS использовала специально обученные алгоритмы для каждой игры. Вторая версия позволяет не привязываться к конкретной игре. Она доступна для всех игр.

NVIDIA DLSS 2.0 | A Big Leap In AI Rendering

Технология DLSS 2.0 имеет три режима качества игрового рендера: Quality, Balanced и Performance. В последнем режиме масштабирование осуществляется в 4 раза, с 1080p до 4K.

Европа готовит первый прототип собственного процессора

Европейский проект European Processor Initiative (EPI), призван наладить выпуск заказных процессоров, которые найдут применение в ЕС в различных моделях использования.

Первой задачей EPI стало создание заказного процессора для высокопроизводительных расчётов, таких как машинное обучение. И при создании прототипа разработчики пошли своим путём. Глава совета EPI Жан-Марк Денис в интервью Next Platform рассказал некоторые сведения о готовящимся чипе.

Согласно представленным данным, производиться процессор будет по 6 нм технологии на заводах TSMC (TSMC N6 EUV), а первые образцы будут готовы к концу года, и он будет гетерогенным. Это значит, что на ядре 2.5D будут присутствовать различные разработки. Процессор получит заказной CPU архитектуры ARM. Он будет основан на поколении Zeus серверных ядер Neoverese. Это ядро будет применяться для общих задач, например, запуска ОС. Для специальных целей чип получит ядра Titan — процессор на базе архитектуры RISC-V, которая использует векторную и тензорную обработку для задач искусственного интеллекта. Этот CPU будет использовать все современные стандарты, включая FP32, FP64, INT8 и bfoat16. Система будет использовать память HBM, которая разместится в CPU Titan. Для общих целей будут присутствовать связи DDR5, а внутренние связи будут реализованы посредством шины PCIe 5.0.

NVIDIA представила ИИ-хореографа

Компания NVIDIA активно работает в сфере искусственного интеллекта, представив систему, которая автоматически генерирует танцы на основании музыкальных видео. По словам разработчиков, они натренировали модель глубокого обучения с помощью 71 часа танцевальных видео.

Чтобы помочь в автоматическом создании танцевальных видео, исследователи NVIDIA в сотрудничестве с Университетом Калифорнии создали модель глубокого обучения, которая может автоматически объединять новые различные танцевальные движения, находящиеся в одном общем стиле и в соответствии с ритмом.

Генерация танцевальных движений

«Это сложная, но интересная генеративная задача, которая потенциально поможет и расширит возможности создания контента в искусстве и спорте, таком, как театральный перформанс, ритмическая гимнастика и фигурное катание», — заявили исследователи NVIDIA на конференции Систем обработки нейронной информации (NeurIPS 2019).

Dancing to Music (NeurIPS 2019)

Исходный код работы будет опубликован NVIDIA на GitHub.

NVIDIA научилась превращать картинки в 3D-модели

Исследователи искусственного интеллекта из компании NVIDIA смогли создать механизм преобразования плоских изображений в трёхмерные модели.

В своём блоге компания пояснила, что это необходимо для улучшения понимаемости искусственным интеллектом обрабатываемых объектов. Это будет полезно для приложений, взаимодействующих с реальными объектами, например, с роботами. После тренировки, трехмерная модель на основе изображения создаётся за 100 мс.

Примеры моделирования птиц

В традиционной компьютерной графике трёхмерные модели отображаются на плоских экранах, идея NVIDIA заключается в обратном процессе. Благодаря преобразованию плоского объекта в трёхмерный автоматизированные системы могут улучшить слежение за ним.

Учёные NVIDIA хотят построить архитектуру, способную выполнять эту задачу преобразования без потерь времени с использованием техник машинного обучения. Процесс представляет собой высокоточный рендеринг, выполняемый с использованием архитектуры кодировки-декодировки, варианта нейронной сети, которые трансформирует вводные данные в карту особенностей или вектор, который, в последствии, применяется для предсказания специфичной информации, вроде формы, цвета, текстуры и карты освещённости.

Модель синицы

Примеры таких преобразований приведены на рисунках, и судя по ним, NVIDIA неплохо натренировала свой ИИ на птиц.

NVIDIA разрабатывает особую технику клетчатого рендера

Компания NVIDIA вложила много денег в мульти-GPU-системы, сначала SLI, а затем NVLink, которые, по факту, работают не слишком эффективно. Традиционно в SLI экран делился на части по высоте, однако теперь NVIDIA работает над новой системой плиточного разделения кадра.

Будучи реализованной на одном GPU, такая схема позволила заметно поднять производительность в семействе Maxwell. Теперь же компания хочет использовать подобную схему рендера в мульти-GPU-системах, которая получила название CFR, что расшифровывается как «Checkerboard Frame Rendering» — шахматный рендер кадра или «Checkered Frame Rendering» — клетчатый рендер кадра». Метод уже реализован в нынешней версии драйвера NVIDIA, однако не документирован для разработчиков игр.

Архитектуры рендера

В CFR кадр разделяется на крошечные квадратные плитки, как шахматная доска. Чётные клетки обрабатываются одним GPU, а нечётные — другим. В отличие от AFR (Alternate Frame Rendering), в котором память каждой видеокарты хранит копию всех ресурсов, необходимых для отрисовки кадра, методы CFR и SFR (Split Frame Rendering) оптимизируют размещение ресурсов. Также CFR должен обеспечить меньшие микрозадержки, по сравнению с AFR.

Новый метод рендера совместим только с DirectX (включая DirectX 12, 11 и 10) и не работает с OpenGL или Vulkan. Пока он является эксклюзивным для Turing, поскольку для его работы необходима шина NVLink. С помощью сторонних утилит, таких как NVIDIA Profile Inspector, можно принудительно включить режим CFR, при соответствии аппаратных и программных требований. Сейчас метод находится в стадии разработки. Существует множество проблем совместимости, кроме того, он практически не документирован разработчиками.