Новости про NVIDIA и разработчики

NVIDIA анонсирует AI Eureka

Исследовательское подразделение NVIDIA Research объявила о разработке нового ИИ-агента под названием Eureka, который работает под управлением OpenAI GPT-4 и может самостоятельно обучать роботов сложным задачам.

В своём блоге компания сообщила, что Eureka автоматически пишет алгоритмы поощрения и впервые обучила роботизированную руку выполнять сложное движение, необходимое для вращения ручки пальцами, как это часто делают люди.

Кроме этого, Eureka учит роботов открывать шкафы и ящики, бросать и ловить мячи, набирать текст на клавиатуре и работать с ножницами. Всего порядка 30 задач.

Старший директор NVIDIA по исследованиям ИИ Анима Ананд кумар заявила, что приложенные за последнее десятилетие усилия в обучении привели к невероятным успехам. Впереди по-прежнему ещё множество вызовов, таких как конструкция поощрений, что достигается методом проб и ошибок.

Eureka является первым шагом в направлении разработки новых алгоритмов, которые объединяют в обучении генеративный метод и метод закрепления для решения сложных задач.

NVIDIA применит ИИ в своих драйверах

Согласно свежим слухам, компания NVIDIA готовит новые драйверы с повышенной производительностью благодаря оптимизациям от искусственного интеллекта.

Технически, искусственный интеллект уже внедрён в текущие драйверы видеокарты, однако в будущем масштаб внедрения ИИ будет куда большим. Утверждается, что дальнейшие оптимизации ИИ могут быть использованы для фокусирования на «инструкциях, пропуске данных, использовании аппаратного обеспечения, многопоточности и настройках».

Не совсем понятно, как оптимизации ИИ будут работать на стороне пользователя, ведь пользователи уже используют профили оптимизации для разных игр, полученные из GeForce Experience и построенные на основе широкой базы данных различных конфигураций.

Оптимизации драйверов NVIDIA

Нечто похожее есть и у AMD, которая недавно анонсировала технологию HYPR-RX, также включающую и Radeon Super Resolution и сниженные задержки.

В целом же сообщается, что оптимизации NVIDIA позволят до 30% поднять производительность, а в среднем — на 10%. Привязки к конкретной технологии нет, а потому не ясно, будут ли эти оптимизации работать только на видеокартах RTX, или же и на более старых ускорителях.

NVIDIA наращивает силы в области центральных процессоров

Компания NVIDIA решила расширять свои исследования и разработки в области центральных процессоров, для чего нанимает специалистов в Израиле.

Майкл Кэгэн, технический директор NVIDIA, подтвердил, что компания создаёт новую группу по центральным процессорам в своих усилиях по увеличению присутствия в быстро меняющемся рынке HPC. В прошлом году, в апреле, Дзень-Хсунь Хуан представил первый центральный процессор компании на основе архитектуры ARM, который был назван Grace. Этот процессор готовится к выпуску в 2023 году.

Процессор NVIDIA Grace

«Израиль, со своим уникальным набором талантов, является ключевым игроком в мировой технологической экосистеме, и мы восхищены созданием новой группы по CPU здесь. Мы видим в будущем дальнейший рост нашей локальной научно-исследовательской деятельности в этой области и в нашей громадной работе по поддержанию локальной экосистемы посредством уникальных программ для стартапов и разработчиков».

— Майкл Кэгэн, технический директор NVIDIA.

Новая процессорная группа будет работать наряду с другими командами в Израиле, которые заняты созданием высокоскоростной сети, технологиями HPC и процессорами обработки данных NVIDIA.

После приобретения Mellanox в 2020 году израильская команда NVIDIA выросла на треть до 2800 рабочих. Для новой команды будут наняты ещё сотни людей.

NVIDIA выпускает SDK RTX Global Illumination (RTXGI)

Компания NVIDIA выпустила первую версию среды разработки RTX Global Illumination. Благодаря этому SDK разработчики игр, учёные и художники смогут создавать масштабируемые решения для внедрения трассировки лучей без потерь времени, световых утечек или высокой стоимости рендера.

В SDK есть ряд ключевых возможностей, которые облегчат процесс разработки. Для начала SDK предлагает эффективное использование памяти и вычислительные шейдеры, поддержку множества систем координат и захвата событий движка и геймплея для приоритезации обновления освещения. В отличии от традиционных решений глобального освещения, RTXGI использует трассировку лучей в реальном времени для обновления информации на лету. Это позволяет SDK избавиться от предварительных вычислений.

NVIDIA RTX Global Illumination

Более того, RTXGI временно аккумулирует и фильтрует информацию о фильтрах освещения и сведения о дистанции в реальном времени на основе зондирующей структуры данных. Это создаёт высококачественный световой кэш со многими отражениями, завершённой визуальной информацией без негативного влияния на производительность. Также SDK обеспечивает работу без утечек света и теней, ему не требуются дополнительные блокировщики.

Среда разработки RTXGI поддерживается на любом GPU с DXR, включая видеокарты серий GeForce RTX 20, GTX 1660 и GTX 10.

NVIDIA разрабатывает особую технику клетчатого рендера

Компания NVIDIA вложила много денег в мульти-GPU-системы, сначала SLI, а затем NVLink, которые, по факту, работают не слишком эффективно. Традиционно в SLI экран делился на части по высоте, однако теперь NVIDIA работает над новой системой плиточного разделения кадра.

Будучи реализованной на одном GPU, такая схема позволила заметно поднять производительность в семействе Maxwell. Теперь же компания хочет использовать подобную схему рендера в мульти-GPU-системах, которая получила название CFR, что расшифровывается как «Checkerboard Frame Rendering» — шахматный рендер кадра или «Checkered Frame Rendering» — клетчатый рендер кадра». Метод уже реализован в нынешней версии драйвера NVIDIA, однако не документирован для разработчиков игр.

Архитектуры рендера

В CFR кадр разделяется на крошечные квадратные плитки, как шахматная доска. Чётные клетки обрабатываются одним GPU, а нечётные — другим. В отличие от AFR (Alternate Frame Rendering), в котором память каждой видеокарты хранит копию всех ресурсов, необходимых для отрисовки кадра, методы CFR и SFR (Split Frame Rendering) оптимизируют размещение ресурсов. Также CFR должен обеспечить меньшие микрозадержки, по сравнению с AFR.

Новый метод рендера совместим только с DirectX (включая DirectX 12, 11 и 10) и не работает с OpenGL или Vulkan. Пока он является эксклюзивным для Turing, поскольку для его работы необходима шина NVLink. С помощью сторонних утилит, таких как NVIDIA Profile Inspector, можно принудительно включить режим CFR, при соответствии аппаратных и программных требований. Сейчас метод находится в стадии разработки. Существует множество проблем совместимости, кроме того, он практически не документирован разработчиками.

Otoy реверсно разработал NVIDIA CUDA для не-NVIDIA устройств

Разработчик Otoy анонсировал программное обеспечение OctaneRender, которое позволяет запускать NVIDIA CUDA приложения на аппаратном обеспечении отличном от NVIDIA.

Компания отмечает, что CUDA является превосходной альтернативой OpenCL и позволяет создавать намного более богатое графическое ПО. Именно поэтому Otoy и решила разработать CUDA методом реверс инжиниринга, и создала единый CUDA код, который можно запускать на GPU не только от NVIDIA, но и разработки AMD, ARM и Intel.

Основной целью разработки является предоставление CUDA приложений, таких как Octane, для Apple Metal GPGPU API под OSX и iOS, где заметно не хватает OpenCL 2.1, Vulkan и OpenGL ES.

Разработчики отметили, что они мечтали сделать превосходные CUDA программы доступными для разработчиков игр на таких устройствах как компьютеры Mac и iOS. В Otoy адаптировали Octane для работы в качестве плагина для игрового движка, как движок Epic Unreal.

Новая функция появится вместе с релизом Otoy Octane 3.1. Подробную информацию можно найти на сайте VentureBeat.

NVIDIA: новый драйвер лучше AMD Mantle

В ходе GPU Technology Conference компания NVIDIA рассказала о том, что она собралась конкурировать с Mantle API в плане производительности. Однако вместо выпуска собственного API, компания решила делать это подготовив новые драйверы.

К примеру, в Star Swarm NVIDIA заявила об улучшении производительности на двузначную величину, обойдя AMD Mantle. Компания разъяснила, что имеет ввиду то, что её новый драйвер имеет в среднем большую частоту кадров, чем у Mantle, однако при этом имеет меньшую скорость кадра, над чем компании ещё предстоит поработать. Удивительно, насколько большой запас производительности есть у аппаратного обеспечения, если столь заметных улучшений можно достичь, лишь оптимизацией драйвера.

В Thief NVIDIA также показала улучшения оптимизацией Direct3D, что в результате дало лучшие показатели, чем у Mantle в частоте кадров.

Зелёный разработчик видеокарт продемонстрировал эти две игры как доказательство тому, что ей не требуется новый API для достижения таких же результатов, особенно, когда приложение работает в связке с CPU. В то же время компания подтвердила, что DirectX 11 ещё имеет достаточно пространства для оптимизаций и улучшения, и именно поэтому компания занялась разработкой нового улучшенного и оптимизированного DirectX 12. Новый драйвер будет выпущен где-то в апреле 2014 года.

NVIDIA начнёт поставки модулей G-Sync во втором квартале

Компания NVIDIA всерьёз озаботилась идеей синхронизации подготовки видеокадра с его выводом на мониторе.

Несколько недель назад ею было представлено технологическое решение, позволяющие избежать срыва кадра при включённой вертикальной синхронизации, которое получило название G-Sync. По информации самой NVIDIA, для достижения этого эффекта с ней захотели сотрудничать многие производители мониторов, включая компании Acer, AOC, ASUS, BenQ, Philips и ViewSonic. И совместно с ними компания NVIDIA начнёт поставки своего G-Sync модуля где-то во втором квартале этого года.

В настоящее же время лишь один монитор, Asus VG248QE, имеет поддержку модуля G-Sync. Также Asus объявила, что такой же монитор, но уже с включенной поддержкой G-Sync, должен появиться в продаже в первой половине 2014 года. Некоторые другие компании из списка партнёров, в ближайшее время также подготовят первые дисплеи с G-Sync, или по крайней мере анонсируют их. Но если же вы ищите модуль для собственноручного апгрейда, то вам придётся подождать его до второго квартала 2014 года. Данный модуль представляет собой печатную плату, которая убирает задержки и мерцания изображения, обычно имеющие место быть при наличии V-Sync.

Безусловно, технология G-Sync имеет большое будущее в видеоиграх на ПК, так что нет сомнений в том, что поддержка этой разработки будет присутствовать во многих, если не всех, игровых мониторах.

NVIDIA стала помогать разработчикам Nouveau

Компания NVIDIA приняла решение передать некоторые важные сведения разработчикам Nouveau, что позволит добавить дополнительный функционал их видеокартам при использовании этого альтернативного свободного драйвера.

Компания NVIDIA решила продемонстрировать свою лояльность и показать, что не зря является одним из ведущих участников сообщества Linux, начав помощь разработчикам видеодрайвера Nouveau. В этот раз была предоставлена информация о кодеке H.264 в видеокартах на базе процессоров Fermi и Tesla.

Речь идёт исключительно о технических вопросах, однако в своём официальном письме NVIDIA пообещала помогать сообществу, что только положительно скажется на всей ОС.

Проект Nouveau — это драйвер для видеокарт NVIDIA с открытым исходным кодом, который обслуживается и разрабатывается группой преданных пользователей. Только представьте, насколько сложно работать с аппаратным обеспечением, к которому не имеешь полноценного доступа. И вот теперь NVIDIA пошла навстречу группе разработчиков, предоставив некоторые технические детали. Будем надеяться, что это не последний жест доброй воли для NVIDIA.

NVIDIA: новые консоли никогда не догонят графику PC

Старший вице-президент NVIDIA по контенту и технологии Тони Тамаси в недавнем интервью заявил, что времена, когда консоли имели большое преимущество перед PC в возможностях графики, остались в прошлом.

Тамаси отметил, что Microsoft и Sony просто не могут уяснить это. Он сообщил это говоря о нынешнем состоянии графики и увеличении бюджета на разработки, физическом устройстве и мощности, сказав, что такие приставки как PS3 и Xbox 360 больше не могут существовать. «NVIDIA тратит на исследования и разработки в области графики 1,5 миллиарда долларов США, каждый год, и за жизненный цикл консолей мы потратим более 10 миллиардов долларов на исследование графики. Sony и Microsoft просто не в состоянии тратить такие деньги», — заявил вице-президент.

Другая причина превосходства PC в обозримом будущем кроется в энергетическом бюджете. «Наиболее эффективные архитектуры от NVIDIA и AMD, и вы не станете делать что-либо значительно более энергоэффективное для консоли, которая использует ту же основную технологию». Ведь консоли, это те же PC, но со сниженным до 200—300 Вт энергопотреблением, чтобы сделать их дружественными для гостиной. «Учитывая теоретические лимиты, лучшая из консолей, которые только может быть сделана, была бы консоль равная лучшему PC своего времени. Но затем, годом позднее, она станет медленнее, но тем не менее это невозможно ввиду ограничений мощности», — добавил Тамаси.

Правда, в своём интервью вице-президент не учёл потерю производительности на PC вызванную несовершенством драйверов, API и необходимостью разработки универсальной игры, которая бы работала с любым компьютером. На консолях же такой проблемы нет, и игру можно заточить непосредственно для конкретного GPU. Как бы то ни было, будет любопытно сравнить качество видео на новых приставках и на современных ПК.

NVIDIA объявила о поддержке PhysX в Xbox One

Компания NVIDIA объявила, что новая игровая консоль от Microsoft получит собственную версию среды разработки NVIDIA PhysX и NVIDIA APEX, равно, как и PlayStatio 4 от Sony.

Как изветсно, программы PhysX и APEX предназначены для определения столкновений объектов и эмуляции физических эффектов в твердых телах, частицах, жидкостях и тканях.

 «Мы рады расширить наши технологии PhysX и APEX на консоль Microsoft Xbox One», — заявил Майк Сколонес, менеджер продуктов PhysX SDK в NVIDIA. «Мы смотрим в будущее сообщества разработчиков Xbox предоставляя преимущества PhysX и APEX наряду с процессорной мощью Xbox One, простотой программирования и возможностями приставок следующего поколения для разработки игр, которые обеспечивают распаралелленные и ультрареалистичные вычисления».

Напомним, что программное обеспечение NVIDIA PhysX и APEX предназначено для работы на различных архитектурах CPU и может быть ускорено любыми графическими процессорами с архитектурой CUDA.

AMD: NVIDIA огорчена выбором Sony

Директор AMD по независимым производителям продуктов Нил Робинсон подколол NVIDIA, сказав, что конкурентный производитель чипов «немного огорчён» решением Sony о сохранении AMD в качестве поставщика процессора для PS4, вместо перехода на чипы NVIDIA.

В марте Тони Тамаси из NVIDIA заявил: «Если PS4 будут поставлены в декабре, как утверждает Sony, они предложат только порядка половины производительности GPU GTX680, которая вышла в марте 2012, более полутора лет назад».

Робинсон парировал на заявление Тамаси, отметив, что решение AMD для PS4 несравнимо с тем, что NVIDIA предлагает для PC.

«Что ж, конечно, они собирались сделать это», — заявил Робинсон. «Они немного огорчены. Для нас, реально смотрящих на разработанный нами APU понятно, что вы не можете оторвать отдельные компоненты, взять их и сказать „Ага, сравниваем X и Y“. Это не просто CPU, выполняющий все эти огромные вычисления и GPU, делающий вычисления. Сейчас мы можем разделять некоторые задачи между обоими».

Конечно, обсуждения продолжатся и в будущем, поскольку очень много экспертов считает, что для будущего поколения консолей AMD поставляет Sony устаревшую технологию. С другой стороны, производительность может оказаться достаточной, учитывая жёсткую архитектуру и программную оптимизацию.

Google Nexus 7 разогнан до 2 ГГц

В начале этой недели долгожданный планшет от Google наконец-то добрался до Европы. Его процессор Tegra 3 работает на частоте 1,3 ГГц, что весьма неплохо для гаджета за 200 долларов.

Однако фанаты устройства решили проверить его прочность и немного разогнали его SoC. Известный разработчик кастомного ядра Elite с ником Clemsyn утверждает, что процессор этого 7” планшета вполне может работать с частотой 2 ГГц. Такой разгон, что неудивительно, кардинально увеличил производительность устройства. Теперь Nexus 7 по бенчмаркам даже превосходит Transformer Prime и однозначно оставляет позади все смартфоны.

Правда, достижение таких умопомрачительных высот требует стальных нервов. Дело в том, что ядро Elite ещё плохо отработано, отчего его разработчики и не выпускают проект в свободное плавание. Кроме того известно, что процессор NVIDIA очень сильно греется при повышенной нагрузке. Будем надеяться, что после доработки прошивки мы получим более безопасный способ разгона. Однако если же вы решили пожертвовать гарантией ради разгона, то разработчики предоставили вам возможность поднятия частоты Tegra 3 до весьма весомых 1,8 ГГц.

Обновилась среда разработки PhysX SDK 2.8.4.6

Несмотря на то, что NVIDIA давно анонсировала движок PhysX 3, компания до сих пор продолжает модернизацию второй линейки своего эмулятора физики.

Очередная версия второй линейки — PhysX SDK 2.8.4.6 вышла в пятницу, и содержит незначительные исправления, в числе которых:

  • исправлена ошибка, при которой счетчик вершин не был кратен 4 при включенной опции NX_CLF_HARD_STRETCH_LIMITATION;
  • включен код SPU для APEX
  • исправлена ошибка SPU Raycast
  • внесены прочие мелкие исправления APEX

SDK доступна для платформ PC, Xbox 360 и PS3. Загрузить набор средств разработки можно как всегда на Developer Support Center.

AMD предлагает инвестировать средства на поддержку разработчиков программ для архитектуры Fusion

AMD имеет большие планы на Fusion и планирует выделять инвестиции, направленные на создание прочной базы разработчиков.

В интервью PC World, директор AMD по продажам Fusion Джон Тейлор объявил о планах AMD по инвестированию в программное обеспечение для разработки приложений, предназначенных для нового поколения процессоров. Тейлор также отметил, что AMD будет вкладывать средства в компании, занимающиеся разработкой оборудования и комплектующих для поддержки архитектуры Fusion.

Тейлор отметил, что целью AMD является ускорение внедрения уникальных решений и вычислительных приложений, специально разработанных для использования комплексной архитектуроы Fusion. Он отметил, что графические процессоры могут, среди прочего, ускорять приложения рендеринга и обеспечивать безопасность браузеров.

Ранее AMD и NVIDIA поддержали усилия по использованию GPU при вычислениях. AMD оказывает помощь разработчикам OpenCL, а NVIDIA оказывает содействие развитию CUDA в течение многих лет.

Тейлор подтвердил, что AMD уже сделала некоторые, связанные с Fusion, стратегические инвестиции, но не раскрыл название компаний, принимающих участие в программе.

Подробнее вы можете прочитать на сайте pcworld.com (на английском).