Новости про NVIDIA и технологии

NVIDIA продемонстрировала HairWorks 1.1 с 500 тысячами волос

Компания NVIDIA представила довольно странную демонстрацию нового спецэффекта. Странная она лишь тем, что манекен обладает пышной шевелюрой. Однако само представленное видео впечатляет. На нём представлен новый инструмент эмуляции реалистичных волос для разработчиков HairWorks версии 1.1.

В своём новом клипе NVIDIA показала длинную причёску, содержащую около полумиллиона отдельных волос, которые развиваются по мере перемещения камеры. Если бы это был настоящий парик, ролик мог бы стать одним из самых скучных на YouTube. Ну а поскольку данное видео полностью смоделировано, оно вызывает лишь восхищение.

NVIDIA HairWorks 1.1

Ранее NVIDIA уже демонстрировала свою технологию HairWorks, но тогда модель содержала 22 000 волос, и теперь компании удалось увеличить число элементов расчёта в 22 раза.

Представленный ролик был записан с помощью ShadowPlay на видеокарте NVIDIA GeForce GTX 980, правда, разработчики отметили, что для работы технологии подойдёт и куда менее производительная карта.

Технология уже нашла себе применение в десятках живых существ в игре The Witcher 3: Wild Hunt, а также в реализации шерсти многих животных в Far Cry 4.

Представлены скриншоты работы Unreal Engine 4.6 с технологией NVIDIA VXGI

Компания NVIDIA в последней серии видеокарт, GeForce GTX 900, представила общественности новую технологию динамического освещения, названную воксельная глобальная иллюминация или VXGI.

Сама NVIDIA в описании технологии утверждает, что воксельная глобальная иллюминация обеспечивающее невероятно реалистичное освещение, затенение и отражения в ПК-играх и на игровых движках нового поколения. Данная технология была интегрирована в различные движки, включая Unreal Engine 4, и 3D художник с ником Byzantos поэкспериментировал с этими возможностями.

VXGI в Unreal Engine 4.6

VXGI в Unreal Engine 4.6

VXGI в Unreal Engine 4.6

VXGI в Unreal Engine 4.6

VXGI в Unreal Engine 4.6

Как видно на скриншотах (и, конечно, на видео), технология выглядит великолепно. Как уверяет Byzantos, это наиболее точное решение из доступных на сегодняшний день, особенно когда речь заходит об отношении производительности к качеству визуальных эффектов.

Хотя по словам Byzantos, VXGI ещё находится на этапе бета тестирования, он является наилучшим движком освещения, и глядя на созданное им видео с этим сложно не согласиться.

HairWorks — собственное решение NVIDIA для эмуляции волос и шерсти

Компания AMD сделала неплохой маркетинговый ход, представив свою технологию эмуляции волос и шерсти TressFX. Кроме того, компания пообещала выпустить новую, улучшенную версию этой технологии, и ответ NVIDIA не заставил себя долго ждать.

Конкурентная компания представила свою разработку под названием HairWorks, которая основана на общедоступном API DirectCompute. В видеоролике ниже показано, какова эта технология в реальности. Для примера была показана эмуляция шерсти животных в игре Call of Duty: Ghosts, которая называется Dynamic Fur, и надо отметить, что она весьма хороша.

NVIDIA HairWorks

Впервые технология реалистичного отображения шерсти появилась на E3 2013 для волка в игре Witcher 3, после чего она была улучшена во многих играх, включая тот же Witcher 3, Call of Duty: Ghosts и прочих. Каждый объект шерсти содержит от 400 до 500 тысяч отдельных волосков. Большинство из них создаются динамически на лету с помощью GPU на основе 10 тысяч опорных волос, которые эмулируются и создают основу для дальнейшей тесселяции.

NVIDIA не впечатлялась демонстрацией AMD Free Sync

На специальном мероприятии компания AMD продемонстрировала интересное решение по синхронизации видеоряда, утверждая, что оно проще и дешевле в реализации, чем NVIDIA G-Sync.

Технология AMD Free Sync в основном использует существующее аппаратное обеспечение, в отличии о G-Sync, где требуется использование специальных проприетарных модулей. Технология AMD была продемонстрирована на паре дешёвых лэптопов, и те, кто имел шанс увидеть её в деле, сообщил, что она работает неплохо. Правда, в NVIDIA считают иначе.

Том Петерсен из NVIDIA заявил в интервью Tech Report, что эти две технологии на самом деле несравнимы. Петерсен отметил, что демонстрация работала на ноутбуках потому, что между GPU и экраном они имеют более прямые интерфейсы. Лэптопы используют интерфейсы LVDS или eDP, в то время как настольные ПК используют DisplayPort и HDMI. Последние имеют масштабирующие микросхемы, и это не прямой интерфейс. По этой причине Петерсен считает, что AMD Free Sync неприменима для настольных ПК.

Представитель NVIDIA Том Петерсен

Решение NVIDIA является более гибким. В нём G-Sync заменяет масштабирующую микросхему устройством собственной конструкции. Работой масштабирующих микросхем исключается поддержка переменной частоты кадров, а значит они не могут использоваться для устранения мерцания и тиринга кадра.

Ввиду того, что AMD Free Sync не может использоваться в настольных ПК, её можно применять в игровых лэптопах. Поскольку она не требует какого-либо специализированного аппаратного обеспечения, она совместима с тремя последними поколениями GPU, и может быть добавлена в нынешние устройства вместе с обновлением прошивки.

Компания NVIDIA, как обычно, не собирается открывать свою разработку G-Sync, однако позволяет использовать её с графическими картами AMD. В то же время не похоже, что AMD может работать над подобным решением.

NVIDIA начнёт поставки модулей G-Sync во втором квартале

Компания NVIDIA всерьёз озаботилась идеей синхронизации подготовки видеокадра с его выводом на мониторе.

Несколько недель назад ею было представлено технологическое решение, позволяющие избежать срыва кадра при включённой вертикальной синхронизации, которое получило название G-Sync. По информации самой NVIDIA, для достижения этого эффекта с ней захотели сотрудничать многие производители мониторов, включая компании Acer, AOC, ASUS, BenQ, Philips и ViewSonic. И совместно с ними компания NVIDIA начнёт поставки своего G-Sync модуля где-то во втором квартале этого года.

Модуль G-Sync

В настоящее же время лишь один монитор, Asus VG248QE, имеет поддержку модуля G-Sync. Также Asus объявила, что такой же монитор, но уже с включенной поддержкой G-Sync, должен появиться в продаже в первой половине 2014 года. Некоторые другие компании из списка партнёров, в ближайшее время также подготовят первые дисплеи с G-Sync, или по крайней мере анонсируют их. Но если же вы ищите модуль для собственноручного апгрейда, то вам придётся подождать его до второго квартала 2014 года. Данный модуль представляет собой печатную плату, которая убирает задержки и мерцания изображения, обычно имеющие место быть при наличии V-Sync.

Безусловно, технология G-Sync имеет большое будущее в видеоиграх на ПК, так что нет сомнений в том, что поддержка этой разработки будет присутствовать во многих, если не всех, игровых мониторах.

NVIDIA продемонстрировала мобильный облачный игровой сервис

Компания NVIDIA провела демонстрацию CloudLight, новой облачной технологии для рендера в реальном времени изображений с непрямым светом.

Техника предназначена для снижения нагрузки на процессоры мобильных устройств при интенсивных расчётах, и переноса их в облако, и таким образом, создания визуально более качественного видеоряда в играх на мобильных системах.

Согласно пресс-релизу компании, облачная система CloudLight отличается от одномашинного расчёта по трём принципиальным позициям. Во-первых, представленное картирование поверх существующих устройств обеспечивает потенциально ассиметричные вычислительные ресурсы, по сравнению с теми, что есть в облаке и на локальном устройстве. Во-вторых, по сравнению с аппаратной шиной памяти, сеть предлагает намного большие задержки и меньшую пропускную способность между определёнными этапами связи. И, в-третьих, для многопользовательского виртуального окружения, облачные решения могут амортизировать мировое влияние на рост конечной стоимости устройств.

Схема работы NVIDIA CloudLight

Для реализации этой технологии компания использовала три известных алгоритма освещения и продемонстрировала работу технологии при 50 одновременно подключенных пользователях.

Ещё одной интересной особенностью технологии является то, что в случае сбоя интернет подключения, пользователи увидят обычное качество спецэффектов, такое же, как наблюдается сейчас во всех мобильных играх, а с восстановлением подключения к серверам CloudLight, качество световых эффектов будет также восстановлено.

Пока ещё компания не объявила об условиях продажи данной технологии, а также не назвала ни одного возможного партнёра среди разработчиков игр, кто хотел бы применить в своих проектах новое решение NVIDIA.

AMD не станет лицензировать свои графические технологии

Похоже, что это только вопрос времени, когда NVIDIA сумеет вернуть себе лидерство на мировых рынках.

Когда AMD подсчитывает каждый цент прибыли от контрактов с производителями консолей, её главный конкурент делает вид, что ему это совершенно неинтересно. И теперь становится понятно, почему компания вела такую политику. Отстранившись от рынка консолей, фирма полностью сосредоточила усилия на чипе Kepler, решив для его популяризации начать лицензирование технологии для смартфонов и планшетов.

AMD

И вот спустя пару дней после объявления NVIDIA, AMD заявила, что не пойдёт тем же путём. Графика Radeon компании AMD останется доступной лишь для производителей игровых приставок и видеокарт для ПК, для которых фирма и будет производить GPU.

«Мы не сделали каких-либо объявлений касательно лицензирования GCN или наших графических разработок. В дополнение к нашему всестороннему подходу, наш смежный бизнес предлагает клиентам возможность войти в расширенный портфель разработок AMD включая x86, ARM, мультимедиа и, конечно же, нашу лидирующую в промышленности графику», — заявил Трэвис Виллиам, представитель бизнеса AMD по встраиваемым и смежным решениям, в интервью X-bit Labs.

NVIDIA работает над Optimus для Linux

Мы все помним, как Линус Торвальдс «высказался» о поддержке технологии Optimus в операционной системе Linux.

И мы все знаем, что эта энергосберегающая технология для ноутбуков, в целом, неплохо работает, но только в Windows. Но, похоже, этой гегемонии Microsoft приходит конец, и инженеры NVIDIA решили расширить поддержку Optimus.

NVIDA Optimus

Аарон Платтнер (Aaron Plattner), программный инженер NVIDIA заявил, что компания перенесёт эту технологию на Linux.

«Я экспериментировал с поддержкой нового объектного интерфейса RandR 1.4 от Дейва Эирли, так что лэптопы с Optimus смогут использовать новый драйвер для управления дискретным GPU и вывода изображения на дискретный GPU. Хорошая новость в том, что я получил подтверждение работоспособности концепта», — заявил Аарон Платтнер в ответ на просьбу о помощи со стороны других разработчиков.

То, что NVIDIA начала работать над поддержкой Optimus в Linux — это прекрасная новость. И вряд ли кто-то усомнится, в том, что нелицеприятный жест Линуса Торвальдса никак не повлиял на это. В любом случае, это приятная новость, и нам остаётся надеяться, что до выхода Optimus под Linux пройдёт не так много времени.

TSMC потратит 10 миллиардов долларов на расширение

Компания TSMC планирует потратить в будущем году 10 млрд. долларов на капитальные вложения, что вызвано видением в TSMC у компании Apple своего контрактного производителя процессоров следующего поколения.

По информации китайского ресурса Economic Daily News, компания TSMC известила поставщиков оборудования о своём решении выделить на капитальные вложения в 2013 году 10 млрд. долларов США. Это сигнализирует о том, что Taiwan Semiconductor Manufacturing Company поборола технические проблемы с 20 нм технологическим процессом, который будет использоваться в процессорах Apple следующего поколения.

Taiwan Semiconductor Manufacturing Company

Это также говорит о том, что в Купертино научные разработки идут лучшими темпами, чем в Samsung. Сама же Apple командировала в TSMC порядка 200 инженеров-конструкторов, которые в Central Taiwan Science Park займутся оптимизацией процессоров под новый технологический процесс производства.

Опытное производство новых процессоров начнётся в TSMC в первой половине  года, а массовое производство ожидается начать во втором полугодии.

NVIDIA официально подтвердила возврат SLI на платформу AMD

Директор по техническом у маркетингу NVIDIA господин Том Петерсен (Tom Petersen) в своем блоге официально подтвердил, что на чипсетах серии AMD 9 появится возможность использовать SLI.

Петерсен объясняет этот шаг усилившейся конкуренцией между AMD и Intel в связи с выходом новых хай-энд процессоров Bulldozer и, как следствие, расширением базы требовательных игроков, использующих процессоры AMD.

Следует отметить, что технология SLI дебютировала еще во времена nForce 4, когда NVIDIA разрабатывала чипсеты для процессоров AMD.

NVIDIA официально подтвердила возврат SLI на платформу AMD

Том также подчеркнул, что порядка 35 миллионов игроков, а это 93% всех multi-GPU конфигураций, используют технологию SLI. Так что бизнес-идея о привлечении еще большей аудитории имеет смысл. Однако NVIDIA не признается, что по состоянию на март 2011 года около 28% всех игроков использовали платформу AMD. Так что, учитывая меньшую цену на процессоры AMD, внедрение SLI на чипсетах AMD будет востребовано людьми желающими сэкономить, Те же, кто надеется, что SLI окажется доступен на существующих чипсетах будет разочарован. Это невозможно, в связи с условиями лицензирования SLI — NVIDIA взимает 5 долларов за каждую проданную материнскую плату с поддержкой SLI. Так что включения такой функции на чипсетах 700/800 серии не будет, не смотря на техническую возможность.

NVIDIA уже анонсировала изготовителей, которые получили лицензию на производство материнских плат на чипсетах AMD 990FX, 990X и 970 с поддержкой SLI. Таковыми стали ASUS, Gigabyte, ASRock и MSI.

Кстати, этим сообщением, NVIDIA подтвердила выход новых чипсетов AMD раньше, чем они сами это сделали