Новости про видео и видеокарты

ИИ-масштабирование от NVIDIA теперь работает на веб-видео

Технология масштабирования на основе искусственного интеллекта от NVIDIA, доступная в картах серии RTX, позволяет заметно улучшить качество картинки в играх без влияния на производительность. Теперь же эта технология станет доступной и для веб-видео при использовании видеокарт Ampere и Ada Lovelace.

Так, начиная с февраля на PC, при использовании видеокарт серий RTX 40 и RTX 30, можно будет масштабирование видео разрешением 1080p до 4K. Работать это будет в браузере Google Chrome и Microsoft Edge. Пока не ясно, почему технология не будет работать с RTX 20, ведь функционал DLSS доступен и в этой серии ускорителей. Будем надеется, что в будущем перечень доступных моделей GPU расширится, как появится и поддержка браузера Firefox.

На CES 2023 NVIDIA представила короткое видео с демонстрацией работы RTX Video Super Resolution. В ролике сравнивается видео Apex Legends в разрешении 1080p с масштабированием до 4K. При увеличении картинки видно, что ИИ успешно сглаживал блочные артефакты возле объектов.

Демонстрация не показывает множество движений, а те что есть — медленные, так что как будет работать технология в динамичных сценах пока не понятно.

Introducing RTX Video Super Resolution - 4K AI Upscaling for Chrome & Edge Video

Сейчас NVIDIA предлагает лишь масштабирование от 1080p до 4K. Это интересный и грамотный подход, поскольку большинство стриминговых сервисов, кроме Netflix и YouTube, ограничивают PC-пользователей к доступу к контенту в разрешении 4K, и применение технологии Video Super Resolution позволит насладиться видео с Amazon Prime Video или Hulu в высочайшем качестве.

20 нм Maxwell будут поддерживать H.265

Возможно, вы и не уделяете особо внимания видеокодекам, однако именно они определяют размер и качества конечного видео файла. Для профессионалов же важными являются и скорость кодирования/раскодирования видеоряда.

Именно поэтому продюсерам фильмов важно знать, какие кодеки будут поддерживать будущие GPU, чтобы подготовиться к их повсеместному использованию.

Согласно информации, опубликованной Softpedia, новое поколение графических процессоров NVIDIA, с кодовым именем Maxwell, которое будет изготовлено по 20 нм технологии, будет иметь аппаратную поддержку кодека H.265.

Этот формат является одним из двух потенциальных наследников для H.264, при этом оба будущих стандарта имеют вдвое большую эффективность, что колоссально влияет на размер конечного файла.

Кодек H.265 использует «суперблоки» размером 64х64 пикс. и обрабатывает 35 подпрогнозируемых направлений для их перестроения, увеличивая при этом битовый размер. Его главный конкурент — VP9, не использует блоки, и он имеет открытый исходный код.

Фильмы, которые будут закодированы этими кодеками, должны будут иметь соотношение сторон, кратное 4х8 или 64х32. И хотя Fudzilla и объявила первой о поддержке H.265 в 20 нм GPU Maxwell, это вовсе не означает, что VP9 разработчики оставят без внимания.

Однако всё это имеет одну проблему.  Как мы знаем, TSMC столкнулась с большими производственными трудностями. Поэтому NVIDIA (равно как и AMD), вынуждена перепроектировать свои новые чипы под нормы 32 нм техпроцесса, а значит, 20 нм GPU мы, скорее всего, в этом году не увидим.

Point of View и TGT анонсировали GTX 660 Ti UltraCharged

Всего две недели назад европейский лидер в производстве видеокарт, компания Point of View, являясь эксклюзивным партнёром NVIDIA в производстве видеокарт, нетбуков и планшетов на бае Tegra 3, представила ускоритель GTX 680 UltraCharged, предназначенный для энтузиастов.

Теперь же, Point of View совместно с TGT анонсировали такую же версию ускорителя, но на базе недавно вышедшей графической карты GeForce GTX 660 Ti, оснащённой 2 ГБ памяти GDDR5.

Равно как и старшая модель, POV/TGT GeForce GTX 660Ti 2GB UltraCharged имеет отобранные вручную GPU с низкими утечками, что позволило разработчикам разгонять процессор в автоматическом режиме до 1200 МГц, а затем вручную ещё больше поднять частоту.

Кроме того печатная плата представленного ускорителя позволяет обеспечить базовую частоту процессора на уровне 1033 МГц, а в режиме Boost 1111 МГц и даже выше.

Видеокарта POV/TGT GeForce GTX 660 Ti 2GB UltraCharged «LOW LEAKAGE SELECTION» уже поступила в продажу по ориентировочной цене порядка 329 евро.

Представлено устройство разделяющее один Dual-Link DVI, на три DVI выхода

Компания ACUBE представила довольно интересный гаджет, который будет весьма полезен для владельцев ноутбуков и графических карт с единственным выходом DVI, но с поддержкой dual-link.

Представленный гаджет под названием MViewer MV103 имеет dual-link подключение, а на выходе из устройства расположены три простых, single-link, DVI порта, позволяя, таким образом, подключить три монитора высокой чёткости. Суммарно устройство поддерживает следующие комбинации разрешений и экранов: 3x 1920x1080 @50 Гц; 3x 1680x1050 @60 Гц или 2x 2048x1200 @60 Гц. Для питания устройства требуется внешний блок.

Основной гаджет имеет габариты 160x130x20 мм (ШхВхД), а его масса составляет 430 г. Устройство поддерживает работу в операционных системах Windows 7, Vista и XP, а его выход намечен на октябрь. Цена на гаджет пока не объявлена.

HQV Benchmark 2.0 — анализ качества видео в драйверах ATI, NVIDIA и Intel

Сайт KitGuru провёл масштабное тестирование новых драйверов от ведущих производителей GPU на предмет работы методик улучшения качества изображения в фильмах при помощи масштабного теста HQV Benchmark 2.0.

Компании тратят миллионы долларов на создание видео HD качества, но порой пользователь сталкивается с проблемами отображения из-за плохих драйверов.

Можно долго играться с настройками в контрольной панели драйвера, чтобы добиться высокого качества картинки. Это конечно занятная процедура, но сайт KitGuru решил подойти к этому вопросу с академической точки зрения и протестировать современные драйвера от ATI, NVIDIA и Intel в профессиональном тесте HQV 2.0.

Тест представляет собой обновленную версию оригинального инструмента и состоит из множества различных видеоклипов и видеотестов, которые предназначены для оценки коррекции движения, деинтерлейсинга, декодирования, уменьшения шума и других методик улучшения качества отображаемой картинки.

Существуют две версии программы, стандартной, идущей на DVD и высокой четкости, использующей Blu-ray диск. В тесте использована Blu-ray версия, чтобы сосредоточиться на HD контенте.

Для видеокарт NVIDIA использовался драйвер Forceware 257.15 бета, для ATI новейший WHQL драйвер Catalyst 10.6, который включает новые функции, такие как Mosquito, Noise Reduction и Deblocking. Графика Intel GMA X4500 использовала драйвер 8.15.10.1872, а Intel HD Graphics (i3) - 8.15.10.1952.

Результаты теста представлены ниже, а с подробным описанием и результатами каждого теста вы можете ознакомится здесь (на английском языке).

Краткие выводы :

Intel: Даже несмотря на отказ от выпуска дискретных Larrabee видно, что инженеры Intel уже сделали много для оптимизации обработки видео высокой чёткости и каждое новое поколение имеет определённый прогресс. Если же сравнивать интегрированный графический процессор с современными GPU от NVIDIA или ATI — то пока ещё Intel значительно им уступает. Но нужно снять шляпу перед Intel, если учесть, что последние чипы лучше предыдущих на 125%. Intel определенно движется в правильном направлении — и делает это быстрее, чем кто-либо.

NVIDIA: Опять же, был достигнут прогресс. Переход от NVIDIA G210/220 к нынешнему поколения процессоров Fermi является очень существенным. Кроме того, инженеры NVIDIA постоянно работают с результатами тестов KitGuru и стараются устранить замеченные проблемы, а так же собираются добавить новые функции на примере ATI, такие как Mosquito Noise Reduction и Deblocking.

ATI: Похоже, что ATI даёт преимущество опыт разработки микросхем для цифровых телевизоров. Даже бюджетные карты, такие как пассивно охлаждаемый Sapphire HD 5550, имеет аналогичное флагманской GTX480 от NVIDIA качества видео. Очевидно, что они много работают над улучшением драйверов. На настоящий момент можно с уверенностью заявить, что HD 5000 серия карт предлагает лучшее видео HD качества из доступных на рынке.

Результаты также показали, что Catalyst 10.6, без сомнения, лучший драйвер ATI на настоящий момент в отношении качества видео. Новые функции в Catalyst 10.6, такие, как Mosquito Noise Reduction и Deblocking реально способствуют повышению выходного качества изображения.

Видеокарты NVIDIA имеют отношение к Оскару 2010 за лучшие визуальные эффекты

Недавно прошло вручение наград Американской киноакадемии, которые более известны как «Оскары».

Самый кассовый фильм в истории кино, Аватар режиссёра Джеймса Камэрона, взял всего лишь три Оскара: за лучшую операторскую работу, спецэффекты и лучшую работу художника-постановщика.

Однако для NVIDIA есть повод порадоваться: ведь в награде за лучшие спецэффекты есть огромный вклад калифорнийской компании и её видеокарт Quadro. Интересно, что при создании всех фильмов, номинированных на эту награду, использовались видеокарты NVIDIA Quadro. По этому поводу с небольшим видеоинтервью выступил Денни Шапиро, директор по маркетиннгу видеокарт Quadro в NVIDIA.

NVIDIA in a Minute: GPUs Power the 2010 Best Visual Effects Academy Award Winner

NVIDIA ускоряет работу движка Adobe Mercury Playback

Как мы уже сообщали, новая версия профессиональной программы для монтажа и обработки видео, Premiere Pro от компании Adobe, будет оснащена переработанным движком Mercury Playback Engine.

Этот движок с помощью видеокарт NVIDIA позволяет значительно ускорить скорость рендеринга сцен с наложением множества слоёв, с добавлением эффектов и проч. Также благодаря CUDA и видеокартам NVIDIA Quadro ускоряется и предварительный просмотр результатов монтажа.

Всё это стало возможным благодаря тесной работе разработчиков из Adobe с командой специалистов из NVIDIA во главе с Андрю Креши, который рассказал немного о работе своей команды в небольшом видеоролике.

NVIDIA In A Minute: NVIDIA Fuels Adobe's New Mercury Playback Engine

NVIDIA рассказывает об Optimus в видеоролике

На Youtube-канале NVIDIA появился видеоролик, в котором Матт Вэблин, менеджер продуктов Optimus в NVIDIA, рассказывает о чудесах, которые ждут всех с появлением технологии Optimus в ноутбуках.

Господин Вэблин сообщает, что NVIDIA работала несколько лет над Optimus и в результате при обычной работе ноутбук использует простейшую встроенную видеокарту (при этом дискретная отключается), а при необходимости в дополнительных ресурсах мгновенно переключается на дискретный ускоритель NVIDIA.

Таким образом, достигается отличный баланс между экономией энергии и производительностью. В ближайшее время нас ждёт множество новых ноутбуков различных категорий с поддержкой Opimus.

World, Meet Optimus

Вот ещё рекламнре видео технологии Optimus:

NVIDIA Optimus Technology - The Best Notebook Experience

AMD говорит, что обновить видеокарту просто

Компания AMD выпустила довольно интересную рекламу, цель которой, видимо, убедить, что поставить видеокарту в свой ПК может каждый.

На видео роль «каждого» почему-то исполняет обезьянка, ловко откручивающая болты в корпусе ПК и вставляющая в слот PCI-Express новую видеокарту (разумеется ATI Radeon).

Чего только не сделает обезьянка, чтобы насладиться игрой в H.A.W.X.

Upgrading graphics - So easy, a monkey can do it! ATI Radeon/AMD

Видео: Записи с демонстрации Fermi

В сети появились записи с демонстрации графического процессора Fermi. Конечно, они являются некачественными экранными видеороликами, но тем не менее.

На одной из них есть первая визуальная демонстрация преимущества новой архитектуры. В частности, сравнивается процессор Tesla 1060 (чип GT200b), имеющий старую архитектуру и Fermi в вычислениях с двойной точностью. Как видно на ролике, там, где новая архитектура легко справляется с расчётами в реальном времени, у Tesla 1060 в тех же задачах производительность падает до очень низкого уровня.

NVIDIA GF100/GT300 (Fermi) first live demo in GTC 2009

Второй ролик показывает работу Fermi при расчёте физики. Видно, как легко видеокарта вычисляет множественные столкновения.

NVIDIA GTC 2009 Fermi (GT300) Real Time Physics Demo DX11