Новости по теме «NVIDIA GeForce GT 1030 получила поддержку G-Sync»

MSI Afterburner обновилась до финальной версии 4.4.0

Автор утилиты MSI Afterburner Алексей Николайчук объявил о завершении работы над финальной версией MSI Afterburner 4.4.0 и RTSS 7.0.0, которые теперь доступны для скачивания.

За время разработки и открытого тестирования (начиная с 20 февраля 2017), бета версия была скачана около двух миллионов раз. Полный список изменений по сравнению с предыдущими официальными билдами обоих продуктов включает в себя около 150 (!) изменений/исправлений и новых функциональных возможностей, и большая часть из них уже ранее публиковалась на нашем сайте. На самом деле список изменений огромен, и даже на официальной англоязычной странице приложения он представлен не в полном объёме. Ниже мы привели самые важные и заметные из них.

Кроме изменений в утилитах хотелось бы обратить внимание на новую финальную сборку Riva Tuner Statistic Server версии 7.0.0. Она была создана, поскольку версия RTSS 6.x.x некорректно работала в Windows 10 Creators Update. В новой версии проблем с работоспособностью не замечено.

Итак, самые яркие изменения в MSI Afterburner 4.4.0 и RTSS 7.0.0:

  • Добавлен контроль напряжения ядра для карт референсного дизайна моделей: NVIDIA GeForce GTX 1070 Ti, NVIDIA GeForce GT 1030, NVIDIA GeForce GTX TITAN Xp, NVIDIA GeForce GTX 1080 Ti.
  • Добавлена поддержка в режиме Tesla Compute Cluster.
  • Переработан абстрактный аппаратный слой, что позволило реализовать датчики температуры памяти через прямой доступ к напряжению ядра GPU (AMD Vega 10 SMC) в дополнение к внешним датчикам температуры на шине I2C.
  • Добавлена поддержка процессоров семейства AMD Vega 10.
  • Добавлено управление напряжением ядра Vega через SMC.
  • Добавлен графика мониторинга мощности GPU Vega.
  • Добавлен график мониторинга памяти HBM в видеокартах Vega.
  • Добавлено линейное управление вентилятором для референсных карт Vega (обычно используется нелинейное процентное отображение скорости вентилятора в зависимости от нагрузки, но Vega такой режим не поддерживает).
  • Улучшена точность расчёта смещения и программирования напряжения на картах AMD Fiji, Ellesmere. Минимальное смещение составляет 200 мВ.
  • Исправлено подвисание контроллера использования памяти и GPU в картах серии AMD Radeon RX 500 на драйвере 17.6.1 и более новом.
  • Переработанный слой управления напряжением облегчил экстремальный разгон карт MSI с технологией Quad Overvoltage.
  • Улучшен 5-канальный модуль мониторинга температуры, поддерживающий до 20 независимых сенсоров на видеокарту.
  • Добавлена поддержка новых технологий контроля датчиков в видеокарте MSI GTX1080Ti Lightning Z.
  • Улучшен формат базы данных.
  • Внедрён новый алгоритм определения устройств I2C, ускорен запуск приложения на устройствах с несколькими датчиками напряжения или температуры.
  • Улучшена функциональность управления напряжения сторонними разработчиками с возможностью расширенной калибровки и картирования датчиков.
  • Добавлена поддержка API AMD Overdrive Next X2 в драйвере AMD Crimson 17.7.2.
  • Неофициальный метод разгона не работает для драйвера AMD Crimson 17.7.2.
  • Улучшенный сканер шины PCI обеспечивает низкоуровневый доступ к GPU для вторичной видеокарты в Crossfire.
  • Исправлено зависание при запуске MSI Afterburner на AMD Hawaii.
  • Исправлена ошибка с неверным отображением свойств графиков.
  • Улучшены редактор кривых напряжения/частоты для карт NVIDIA совместимых с GPU Boost 3.0.
  • Юзабилити и стабильность модуля аппаратного мониторинга улучшена благодаря добавлению базового функционала библиотек мониторинга из оригинальной RivaTuner. Так, добавлен мониторинг частот и температур современных процессоров Intel и AMD.
  • Добавлена вкладка бенчмарка, использующая скрытый движок в RivaTuner Statistics Server.
  • Добавлена возможность управления видом OSD с возможностью переключения между классическим и столбчатым отображением информации. Встроенный редактор позволяет настроить выдаваемую информацию.
  • Появилась возможность отображать параметры в OSD в виде текста или графика, что полезно для визуализации истории.
  • Вернулся оригинальный планировщик задач из RivaTuner! Теперь можно установить минимальный и максимальный пороги на любой график, а его достижение будет вызывать некое неотложное действие, включая звуковое оповещение, изменение цвета, запуск какого-либо приложения либо отключение системы.
  • Вернулись оригинальные плагины расширения из RivaTuner! Теперь графики мониторинга можно дополнить сторонними модулями, либо создать собственный. Эти плагины могут использовать полный набор низкоуровневых настроек Afterburner. В поставку включены плагины SMART.dll для демонстрации SMART атрибутов; PerfCounter.dll для показа принципов импорта счётчиков производительности из ОС; AIDA64.dll для отображения показаний датчиков питания из AIDA64; HWInfo.dll для импорта данных из HWiNFO32/64 и т.д.
  • Улучшена архитектура профилей. Теперь MSI Afterburner может хранить настройки модуля мониторинга в слоте профиля, что позволяет переключаться между разными OSD конфигурациями на лету с использованием горячих клавиш.
  • Добавлена поддержка макросов для создания уникальных имён файлов журналов.
  • Изменён порядок отображения свойств мониторинга и графиков. Также появилась возможность сброса порядка графиков на умолчание по команде меню из правой кнопки мыши.
  • Максимальный лимит времени кадра для графика уменьшен до 50 мс (20 к/с).
  • Внедрена функция drag-n-drop для формирования порядка графика мониторинга.
  • Улучшен функционал группового выделения графиков с использованием клавиш <Shift> и <Ctrl>.
  • Улучшено окно системной информации. Теперь информация об использовании атрибутов 3D API, x64 и UWP отображается для каждого запущенного процесса.
  • Инсталлятор теперь сохраняет путь установки.
  • RivaTuner Statistics Server обновлён до версии 7.0.0.

Загрузить утилиту MSI Afterburner 4.4.0 и входящую в её состав RTSS 7.0.0 можно с нашего сайта.

NVIDIA представила технологию G-SYNC Pulsar

Компания NVIDIA представила новое поколение технологии переменной частоты обновления Variable Refresh Rate (VRR), которая значительно увеличивает резкость изображения в динамических сценах благодаря мерцанию с переменной частотой.

В своём блоге компания пояснила, что технология G-SYNC Pulsar применяет две ключевых инновации, над которыми компания работала последнее десятилетие — это Adaptive Overdrive и Pulse Modulation.

Технология G-Sync Pulsar в действии

Так, Adaptive Overdrive «настраивает частоту, при которой пиксель меняет цвет от одного к другому, важнейшей техникой, которая снижает размытие в движении и хостинг». Технология Pulse Modulation решает проблему VRR, связанную с флуктуацией частоты обновления из-за модуляции. Также она интеллектуально контролирует яркость и длительность свечения для обеспечения комфортабельной картинки без мерцания.

Выглядит технология весьма интересно, однако у неё есть и недостатки. Главной из них является необходимость использования мониторов с новыми чипами G-SYNC. Первым из таких мониторов станет серия ASUS ROG Swift PG27, которая выйдет позднее в этом году.

Будущие мониторы с G-Sync будут поддерживать Adaptive-Sync и HDMI-VRR

С этого года компания NVIDIA открыла двери технологии HDMI VRR и VESA Adaptive-Sync на видеокартах GeForce, благодаря чему владельцы видеокарт от NVIDIA могут полноценно использовать некоторые мониторы с VESA Adaptive-Sync.

Теперь же NVIDIA планирует открыть свой мониторный модуль G-Sync для открытых стандартов, что даст возможность использовать G-Sync мониторы по стандартам синхронизации HDMI-VVR и VESA Adaptive-Sync.

Благодаря этому шагу, мониторы с G-Sync можно будет использовать за пределами экосистемы NVIDIA, с видеокартами AMD Radeon или будущими Intel Xe.

G-Sync

Наверняка у вас появился вопрос: зачем NVIDIA это надо? И ответ прост — консоли. Консоли нового поколения будут поддерживать HDMI-VVR и VESA Adaptive-Sync, и выпуская универсальные мониторы с поддержкой G-Sync компания гарантирует себе присутствие на рынке.

К сожалению, это планы будущего. Что касается уже выпущенных дисплеев с G-Sync, то NVIDIA не планирует внедрять на них поддержку HDMI-VRR или VESA Adaptive-Sync.

Asus готовит массивный 65-дюймовый монитор

Концепция NVIDIA Big Format Gaming Displays (BFGD) наконец-то нашла свою реализацию. Впервые анонсированная в 2018 году, концепция воплощается в мониторе ROG Swift PG65UQ, который поступит в продажу в октябре.

К главным характеристикам дисплея можно отнести диагональ 64,5”, разрешение матрицы 3840х2160 пикс. и 95% покрытие пространства DCI-P3. Родная частота кадров дисплея составляет 120 Гц и 144 Гц в разгоне. Поскольку концепт предложен NVIDIA, то имеется поддержка G-Sync. Яркость достигает 1000 кд/м2, имеется и сертификация DisplayHDR 1000. Диммирование обеспечивается в 384 зонах, что даёт высокие уровни контрастности. Монитор поставляется с завода с цветовой калибровкой, при этом точность Delta-E меньше двух. Матрица выводит 10-битный цвет.

Монитор Asus ROG Swift PG65UQ. Вид спереди

Монитор подойдёт и для консольных игр, благодаря поддержке переменной частоты кадров от 48 Гц до 60 Гц.

К сожалению, Asus ROG Swift PG65UQ не имеет встроенного саундбара, а лишь пару динамиков мощностью по 15 Вт. Для простоты управления предусмотрен пульт ДУ.

Монитор Asus ROG Swift PG65UQ. Вид сзади

Когда монитор поступит в продажу пока неизвестно, однако цена на него уже заявлена — 6600 долларов США.

Обновилась популярная информационная утилита GPU-Z до версии 2.23.0

Сайт TechPowerUp выпустил свежее обновление своей популярной утилиты GPU-Z, предназначенной для получения всей доступной информации о вашей видеокарте и мониторинга её параметров. Обновление получило номер 2.23.0.

Новая версия стала более дружественной к дисплеям с высокой пиксельной плотностью, появились иконки высокого разрешения и картинка запуска. Кроме того, добавилась возможность сохранения BIOS для видеокарт серии NVIDIA RTX 20 SUPER. Увеличена стабильность работы приложения.

GPU-Z 2.23.0

Полный перечень изменений в GPU-Z 2.23.0 таков:

  • Улучшена поддержка серии AMD Navi Radeon RX 5700.
  • Добавлена поддержка дополнительных вариантов RTX 2060 и RTX 2070 Super.
  • Добавлен экран запуска и иконка с поддержкой высокого DPI.
  • Добавлено сохранение BIOS для карт NVIDIA Super.
  • Исправлена версия PCIe, на картах Navi всегда показывавшая «4.0».
  • Исправлены вылеты из-за Valve Anticheat.
  • Исправлены вылеты на серии карт Radeon R9 290 / 390.
  • Добавлена поддержка NVIDIA GeForce GTX 1650 Mobile, GTX 1050 Mobile, GT 1030 (GK107), MX150 (GP107), MX250, Tesla V100-SXM2-16GB, Quadro RTX 5000 Mobile, Quadro RTX 3000.
  • Добавлена поддержка AMD Radeon 550X, Radeon 540X, Pro WX 2100, Pro Vega 64, Pro Vega 64X, Pro WX Vega M GL.
  • Добавлена поддержка Intel Iris Pro P580, UHD P630, UHD 610 (CFL GT1).
  • Добавлена поддержка ATI Radeon HD 4350 (VisionTek).
  • Идентификатор оборудования Gainward больше не отображается как «CardExpert».
  • Усилена безопасность для драйвера в режиме ядра (CVE-2019-7245).
  • При невозможности записи файла журнала ошибка отображается лишь один раз.
  • Удалён атрибут «только чтение» для временных файлов перед попыткой удаления.
  • Исправлен год и диалог «О программе».

Загрузить утилиту GPU-Z 2.23.0 можно на нашем сайте.

NVIDIA анонсирует утилиту аналитическую FrameView

Компания NVIDIA постоянно включает в состав GeForce Experience средства измерений работы GPU, которое выводит частоты видеокарты, её производительность и позволяет захватывать видео. Теперь же компания представила новый инструмент под названием FrameView.

Эта утилита была анонсирована вместе с видеокартами серии Super. Средство FrameView выводит дополнительную информацию о работе видеокарты в оверлее и позволяет оценивать производительность и энергопотребление текущей видеокарты.

Утилита NVIDIA FrameView

Так, в одном из четырёх квадрантов экрана утилита выводит среднюю частоту кадров, частоты кадров из 90-го, 95-го и 99-го процентилей, и что самое интересное энергопотребление. Утилита позволяет замерять потребление энергии самим GPU, а также всей видеокартой, вместе с видеопамятью. Всё это необходимо стримерам, которые хотят захватывать игровое видео с идеальным качеством.

Утилита FrameView поддерживает несколько видеокарт. Но что самое интересное, она работает не только с ускорителями NVIDIA GeForce/Quadro, но и с картами AMD, используя возможности DirectX, OpenGL и Vulkan. Также инструмент прекрасно работает с G-SYNC и FreeSync.

OSD утилиты NVIDIA FrameView

Публичная бета-версия FrameView будет доступна к загрузке 9-го июля, в день старта продаж видеокарт GeForce RTX Super.

NVIDIA: Валидацию G-SYNC проходит лишь 6% мониторов

Компания NVIDIA открыла мониторам с Adaptive-Sync путь к своей проприетарной технологии G-Sync. Однако, чтобы соответствовать требованиям качества, компания создала специальный сертификационный тест для таких мониторов. И оказалось, что проверку проваливают 94% мониторов.

Изначальный, зимний, список совместимых дисплеев состоял из 14 моделей. Затем, в апреле, он был расширен до 17 моделей. И вот на Computex компания сообщила о 28 моделях мониторов, отвечающих требованиям. Тут стоит отметить, что эти требования довольно жёсткие. К примеру, чтобы отвечать спецификации G-Sync Ultimate монитор должен соответствовать HDR 1000. Но если же пиковая яркость вашего дисплея 600 кд/м2, что тоже очень хорошо, то он уже не соответствует требуемой спецификации NVIDIA.

Статистика отсеивания при сертификации мониторов G-Sync Compitable

Всего же компания приняла к тесту 536 мониторов с Adaptive Sync. Из них 503 были допущены к тесту. У более чем половины из этих моделей диапазон переменной частоты кадров оказался слишком узким. Из оставшихся 230 моделей 202 имели проблемы с качеством картинки, к которым относится и мерцание.

Найден способ запуска FreeSync на видеокартах NVIDIA

Несколько пользователей Reddit рассказали о найденном ими способе запуска AMD FreeSync на GPU NVIDIA. Этот подход может оказаться очень интересным, ведь по качеству работы технология ничем не отличается от проприетарной G-Sync, но стоит несравнимо меньше.

Для реализации трюка потребуется машина с APU от AMD. В методике применяется возможность переключения графики в Windows 10 на интегрированную. Дисплей подключается к встроенной графике для реализации функции сбережения энергии, в то время как карта NVIDIA GeForce работает в качестве высокопроизводительного GPU. Такой подход позволяет получить FreeSync, работающий с GPU NVIDIA.

Адаптивная синхронизация AMD FreeSync

Издание PC Perspective подтвердило эксперимент и провело некоторые дополнительные исследования. К примеру, они определили, что с таким же подходом можно обеспечить работу G-Sync дисплея на ускорителе AMD (вот только зачем?).

Очевидно, что влияние на продажи G-Sync такой трюк окажет минимальное, учитывая, насколько мало владельцев APU в мире, да ещё и обладающих дискретной видеокартой NVIDIA высокой производительности. В любом случае, NVIDIA имеет все возможности закрыть этот обходной путь, сделав необходимые изменения в драйвере.

NVIDIA GeForce GT 1030 с DDR4 вдвое медленнее GDDR5

Сайт Gamer's Nexus протестировал видеокарту NVIDIA GeForce GT 1030 с памятью DDR4, и она оказалась большим разочарованием. Переход на DDR4 позволил снизить стоимость ускорителя на 10 долларов, но в плане производительности это просто катастрофа.

Такое малозаметное изменение как тип памяти невероятно сильно сказалось на производительности, и многие пользователи могут запутаться, выбрать более дешёвый ускоритель, и в результате разочароваться в бренде.

Тест видеокарт в 3DMark Firestrike

Путаница также возникнет из-за того, что NVIDIA не указывает тип памяти напрямую, а шифрует его. К примеру, версия карты с памятью DDR4 называется «GT 1030 2GB OC LPD4», а с памятью GDDR5 — «GT 1030 2GB OC LPG5», и вот такое небольшое отличие в имени приводит к разнице в производительности в 55%.

На видеокартах NVIDIA есть проблемы с DisplayPort

Графические карты NVIDIA архитектур Maxwell и Pascal имеют проблемы с интерфейсом для подключения современных дисплеев.

Обе архитектуры предлагают использовать интерфейсы DisplayPort 1.4 и 1.3, однако их реализация далека от идеала. Дело в том, что некоторые современные мониторы не работают нормально с видеокартами серий GeForce GTX 900 и GeForce 10. Многие пользователи жалуются на различные ошибки, начиная от чёрных экранов до окончания загрузки операционной системы, и заканчивая заморозкой последовательности загрузки.

NVIDIA

К сожалению, эти ошибки нельзя исправить обновлением драйвера. Для исправления нужно прошить в видеокарту новый BIOS. К счастью, вам не потребуется ждать, пока производители видеокарт напишут новый BIOS, а затем мучиться с NVFlash. В NVIDIA выпустили специальный инструмент, который в автоматическом режиме обновит BIOS видеокарты прямо из-под Windows. Утилита работает не только с референсными видеоплатами, но и с заказными решениями партнёров NVIDIA.

Утилита обновления BIOS

P. S. «Видеокарты серий GeForce GTX 900 и GeForce 10 (архитектуры Maxwell и Pascal) имеют проблемы с интерфейсом для подключения современных дисплеев через DisplayPort» — вопрос в разделе помощи.

Acer выпускает 4K/144 Гц HDR Gsync монитор

Компания Acer первой в мире представила монитор разрешением 4K, кадровой частотой 144 Гц, с поддержкой HDR и адаптивной синхронизацией NVIDIA G-Sync, обогнав конкурентов из Asus.

Монитор Acer Predator x27 является лучшим на сегодня игровым решением. Он имеет диагональ экрана 27”, а его разрешение составляет 3840x2160 пикс. Дисплей поддерживает 10-битный HDR с потрясающей пиковой яркостью 1000 нит, а цветовой охват составляет 99% палитры AdobeRGB. Частота кадров экрана составляет 120 Гц, однако она может быть увеличена до 144 Гц. Монитор поддерживает получение сигнала посредством портов 1xDisplayPort 1.4 или 1xHDMI 2.0. Также имеется хаб на 4 порта USB 3.0.

Acer Predator x27

Конечно, монитор превосходен, но и стоит он соответственно — 2000 долларов США. Кроме того, чтобы такой монитор использовать на всю катушку, вам потребуется и мощная видеокарта, как минимум — GeForce GTX 1080.

Появились урезанные GeForce GT 1030

Сразу несколько производителей видеокарт подготовили к релизу ускорители модели GeForce GT 1030, которые получили другую память и заниженный TDP.

Так, вместо памяти GDDR5, которая всегда ставилась в видеоплаты GT 1030, теперь устанавливают DDR4. Кроме того, видеочипы имеют пониженное тепловыделение, а их частоты снижены.

Видеокарта MSI GeForce GT 1030

Медленная память, несомненно, резко повлияет на производительность. Теоретическая пропускная способность DDR4 составляет 16 ГБ/с, что несравнимо ниже 48 ГБ/с для GDDR5 в картах GT 1030. Кроме того, все частоты GPU также снижены на 5—6%. Тепловыделение этих карт невероятно низкое и составляет 20—30 Вт.

Ожидается, что модели GeForce GT 1030 с памятью DDR4 будут продаваться заметно дешевле, правда, пока цена и доступность не называется.

Опубликованы спецификации GeForce GT 1030

Компания NVIDIA опубликовала спецификации видеокарты начального уровня GeForce GT1030.

Так, видеокарта основана на архитектуре Pascal. Её крошечный GPU потребляет лишь 35 Вт. Этот чип прекрасно подойдёт для видеокарт начального уровня любого размера, включая низкопрофильные решения с пассивным охлаждением. Базовая цена видеокарты ожидается на уровне 60 долларов США.

Что касается технической стороны, то чип с названием GP108 получил 384 ядра CUDA в трёх мультипроцессорных блоках. По сути, GP108 стал половиной от GP107, который работает в GTX 1050 Ti. Учитывая 3 SM в новой видеокарте, она также содержит 24 TMU и 16 ROP. Видеопамять представлена 2 ГБ GDDR5 с шиной 64 бита. Основной интерфейс видеокарты также не широкий. Ей достаточно 8 линий PCI-Express 3.0 x8. Тактовая частота GPU составляет 1227 МГц в номинале и 1468 МГц в режиме Boost. Частота видеопамяти составляет 6,0 ГГц, что обеспечивает пропускную способность в 48 ГБ/с.

Различные варианты видеокарт уже анонсированы производителями.

Dell выпускает пару бюджетных мониторов с адаптивной синхронизацией

Похоже, что производители дисплеев всерьёз заинтересовались бюджетными геймерами. Компания Dell решила не отставать и представила пару недорогих мониторов с высокой частотой кадров и поддержкой технологий NVIDIA G-Sync и AMD FreeSync.

Из представленной пары более интересной является 24” модель S2417DG с родным разрешением в 2560х1440 пикс. с максимальной частотой кадров 165 Гц и технологией NVIDIA G-Sync. Среди прочих спецификаций стоит отметить довольно высокую яркость в 350 кд/м2, пассивную контрастность 1000:1, углы обзора 170°/160° и стандартную гамму sRGB.

Также Dell включила набор игровых профилей для игр жанров RTS, FPS и RTG. Из видеовходов в мониторе присутствует DisplayPort 1.2a и HDMI 1.4, также имеется 4 порта USB 3.0. Подставка обеспечивает изменение высоты, углов наклона и поворота по всем возможным осям.

Дисплей SE2717H с 27” матрицей обладает IPS панелью с меньшим разрешением 1920х1080 пикс. Его дизайн выделяется тонкой рамкой и подставкой, которая позволяет лишь наклонять экран. Из видеовходов монитор обладает D-Sub и HDMI 1.4a. Яркость экрана составляет 300 кд/м2, время отклика — 6 мс. Частота кадров может находиться в диапазоне от 48 до 75 Гц и может динамически меняться благодаря технологии FreeSync.

Модель Dell S2417DG с поддержкой G-Sync будет стоить порядка 570 долларов США, что не сильно много для 1440p монитора с высокой частотой кадров. В то же время за SE2717H с поддержкой AMD FreeSync вам придётся отдать лишь 250 долларов, что делает его одним из самых дешёвых решений на рынке мониторов с адаптивной синхронизацией.

NVIDIA подтверждает проблему G-Sync на высоких частотах

Компания NVIDIA представила технологию адаптивной синхронизации G-Sync ещё в 2013 году. Для её работы необходим специальный модуль внутри монитора, который и позволяет изменять физическую частоту кадров дисплея, подгоняя её под входящий сигнал. Но, как оказалось, технология имеет проблемы, приводящие к резкому росту энергопотребления.

При подключении видеокарты GeForce GTX к G-Sync дисплею с высокой частотой кадров, а проблема была выявлена на мониторе Asus с частотой кадров 165 Гц, энергопотребление карты вырастает катастрофически. Проблема появляется, когда монитор выходит на режим с частотой кадров более 120 Гц, что соответствует ранним G-Sync моделям мониторов. При этом частота GPU вырастает до 135 МГц, а энергопотребление видеокарты вырастает до 76 Вт. Далее частота подскакивает до 885 МГц, а энергопотребление — до 201 Вт. Это происходит при частоте экрана в 165 к/с, даже на рабочем столе Windows.

Компания NVIDIA подтвердила данную проблему: «Эти новые мониторы выявили ошибку в способе управления частотой нашими GPU в G-Sync и появлении очень высоких частот развёртки», — пояснила компания NVIDIA. Также компания добавила: «Мы исправляем ошибку, что позволит понизить операционные затраты наших GPU на тот же уровень энергопотребления для прочих дисплеев. Мы исправим это в будущем драйвере».

Acer выпускает первый в мире 4K дисплей с NVIDIA G-Sync

Разрешение 4K в игровой среде активно набирает популярность, становясь новой мечтой для геймеров, вместо технологии 3D. И каждый новый флагманский GPU, выпускаемый производителями, вызывает один главный вопрос: «как он будет работать в 4K?»

И если вы имеете карту, способную вытягивать это разрешение в современных играх, то получить отличный 4K монитор становится предельно важным. В таком случае, выбор дисплея превращается в ответственную задачу, помочь справиться с которой может Acer и NVIDIA.

Так, Acer представила монитор модели XB280HK с диагональю экрана 28”. Разрешение нового дисплея составляет 3840х2180 пикс. (4K). Сам по себе дисплей вполне тривиален. Он поддерживает технологию снижения яркости до 15%, имеет углы обзора в 170 градусов и оснащён портом DisplayPort 1.2 (без маркировки «a», а значит, и без FreeSync). На дисплее также расположены 4 порта USB 3.0, а его кронштейн позволяет наклонять монитор на угол от -5 до 35 градусов.

Однако главной особенностью монитора является поддержка аппаратной синхронизации NVIDIA G-Sync. Отдельно же такую плату синхронизации компания NVIDIA продаёт за 100 долларов. Как известно, технология G-Sync позволяет решить все проблемы искажения изображения, вызванные рассинхронизацией подготавливаемого и выводимого кадров.

К сожалению, пока ещё не названа цена на новый дисплей Acer XB280HK, так что сравнить его с конкурентами не представляется возможным.

NVIDIA начнёт поставки модулей G-Sync во втором квартале

Компания NVIDIA всерьёз озаботилась идеей синхронизации подготовки видеокадра с его выводом на мониторе.

Несколько недель назад ею было представлено технологическое решение, позволяющие избежать срыва кадра при включённой вертикальной синхронизации, которое получило название G-Sync. По информации самой NVIDIA, для достижения этого эффекта с ней захотели сотрудничать многие производители мониторов, включая компании Acer, AOC, ASUS, BenQ, Philips и ViewSonic. И совместно с ними компания NVIDIA начнёт поставки своего G-Sync модуля где-то во втором квартале этого года.

В настоящее же время лишь один монитор, Asus VG248QE, имеет поддержку модуля G-Sync. Также Asus объявила, что такой же монитор, но уже с включенной поддержкой G-Sync, должен появиться в продаже в первой половине 2014 года. Некоторые другие компании из списка партнёров, в ближайшее время также подготовят первые дисплеи с G-Sync, или по крайней мере анонсируют их. Но если же вы ищите модуль для собственноручного апгрейда, то вам придётся подождать его до второго квартала 2014 года. Данный модуль представляет собой печатную плату, которая убирает задержки и мерцания изображения, обычно имеющие место быть при наличии V-Sync.

Безусловно, технология G-Sync имеет большое будущее в видеоиграх на ПК, так что нет сомнений в том, что поддержка этой разработки будет присутствовать во многих, если не всех, игровых мониторах.

NVIDIA анонсирует технологию G-Sync

В пятницу вечером компания NVIDIA представила свою новую разработку — технологию G-Sync, которая должна стать смертным приговором для V-Sync.

Итак, G-Sync представляет собой модуль, который будет интегрироваться в мониторы и призван устранить любые подтормаживания или разрывы кадра. Этот гаджет должен располагаться внутри некоторых топовых игровых мониторов, включая те, что будет поставлять Asus, Benq, Philips и Viewsonic. Он позволит мониторам выводить кадр сразу после того, как он будет подготовлен.

Это означает, что в результате не будет подтормаживаний и уменьшатся задержки. Также удастся исключить и разрывы кадра, поскольку именно видеокарта будет управлять скоростью работы монитора.

Конечно, нам нужно обождать, пока все вышеперечисленные партнёры выпустят свои дисплеи с поддержкой G-Sync, чтобы узнать сколько же такие мониторы будут стоить. Мы все помним, как несколько лет назад NVIDIA начала выпуск 3D очков и договорилась со множеством брендов о выпуске 3D мониторов, но эта технология так и не вошла в мейнстрим.

Конечно, синхронизация изображения звучит отлично, но с тех пор, как большинство пользователей стали выключать V-Sync, не стоит ожидать, что ситуация в хай-энд сегменте сильно изменится. В то же время игроки со средним и низким бюджетом с удовольствием приобщились бы к G-Sync, вот только беда в том, что они не покупают дорогие геймерские мониторы. Так что заключение о будущей популярности можно будет сделать лишь после того, как станут известны цены на эти дисплеи.

Lucid HYDRA позволит использовать GPU от NVIDIA для ускорения ATI Eyefinity

Гибридная технология позволит «запрячь в одну упряжку» видеокарты от непримиримых противников. 

В ходе прошедшей конференции разработчиков игр GDC 2010 компания Lucid продемонстрировала возможность совместного использования видеокарт NVIDIA и AMD с помощью фирменной технологии HYDRA.

На этот раз была показана возможность реализации многомониторной конфигурации Eyefinity с помощью комбинации видеокарт AMD Radeon HD 5770 и NVIDIA GeForce GTX 260, установленных в материнскую плату MSI Big Bang Fuzion.

Хотя в демонстрации использовалось лишь два монитора, на которые выводилась игра Tom Clancy`s HAWX, представители Lucid заверили, что трёх- и шестимониторные конфигурации также возможны. Производительность игры при работе только карты Radeon составила 74 FPS, после включения же гибридного режима частота кадров поднялась до 98.

Что ж, возможность получить «фишки» из обоих GPU-лагерей очень заманчива, хотя пока неизвестно, работает ли система в обратном направлении: доступны ли будут в гибридной системе технологии NVIDIA 3D Vision и PhysX? Относительно последней всё обстоит не так просто.

ViewSonic представила свой первый OLED- монитор

На рынке игровых OLED-мониторов появился новый игрок — ViewSonic, который представил новую модель XG272-2K-OLED.

Этот монитор имеет OLED-матрицу разрешением 1440p с частотой кадров 240 Гц и быстрым откликом в 0,01 мс, заявляя предельно резкую картинку в наиболее динамичных сценах.

Монитор ViewSonic XG272-2K-OLED

Учитывая такие характеристики нет ничего удивительного в поддержке монитором AMD FreeSync Premium и NVIDIA G-Sync Compatible. Есть и поддержка HDR, при этом ничего не говорится о конкретных цифрах.

Монитор обладает парой входов HDMI 2.1, одним DisplayPort 1.4 и USB Type-C с зарядкой мощностью 15 Вт. Есть и традиционная RGB-подсветка и эргономическая подставка.

Монитор ViewSonic XG272-2K-OLED будет доступен для приобретения в ближайшее время по цене 900 долларов США.

Первые слухи о GPU NVIDIA Blackwell

Известный инсайдер Kopite7kimi опубликовал первые сведения о будущих видеоускорителях NVIDIA с кодовым именем Blackwell.

Для потребительского рынка GPU Blackwell будет представлен в виде чипов серии B200, которые найдут себе место в видеокартах серии NVIDIA GeForce RTX 50. Топовым GPU будет, традиционно, GB203, а вдвое урезанным — GB202. Будут ли эти процессоры монолитными или собранными в чиплет из нескольких ядер, пока не ясно.

Что касается сегмента HPC/AI, то там будет применяться процессор GB100 чиплетной конструкции.

Игровые GB202 получат 512-битный интерфейс памяти, заметно больше, чем 384 бита у флагмана Ada, хотя и в GB202 возможны конфигурации с менее широкой шиной. Тем не менее, в максимальной конфигурации, при использовании модулей GDDR7 со скоростью 28 Гб/с при использовании чипов объёмом 16 Гб видеокарта сможет иметь до 32 ГБ видеопамяти с общей пропускной способностью 1792 ГБ/с. С другой стороны, это означает, что урезанный чип GB203 будет использовать шину шириной 384 бита или 256 бит. О конфигурациях будущих GPU пока ничего не известно.

NVIDIA прекратила выпуск серии GTX

Компания NVIDIA завершила выпуск видеоускорителей серии GTX 1600, фактически завершив эпоху видеокарт GTX.

Отныне компания выпускает исключительно модели GeForce RTX, которые в отличие от GTX содержат ядра типа Tensor, используемые в задачах трассировки лучей. Прекращение выпуска коснётся и модели GeForce GTX 1650, которая является самым доступным игровым решением компании на сегодня. Производственные компании больше не получают процессоров Turing, что означает прекращение выпуска этой модели видеокарты после исчерпания собственных запасов, которое произойдёт через один—три месяца.

NVIDIA GeForce GTX 1630

Это значимый стратегический шаг для NVIDIA, которая теперь предлагает исключительно модели серии RTX с трассировкой лучей и масштабированием с использованием ИИ (DLSS). Младшим решением для настольных систем станет RTX 3050 (6 GB), в то время как для мобильных систем младшей картой по-прежнему является RTX 2050 Mobile позапрошлого поколения.

Многие могут сожалеть о серии GTX как о картах с отличным соотношением производительности и цены, однако прогресс не стоит на месте, и новые игровые решения требует аппаратных изменений.

NVIDIA RTX 5090 может быть быстрее RTX 4090 на 60—70%

Видеокарта NVIDIA RTX 4090 находится в продаже более года, и энтузиастам не терпится узнать, что же разработчик готовит на будущее.

Согласно свежим слухам NVIDIA планирует карту RTX 5090 на базе архитектуры Blackwell уже в этом, и она должна обеспечить заметный скачок производительности, по сравнению с топовым решением Ada.

Муляж NVIDIA RTX 5090

На канале Moore’s Law is Dead в одном из своих видео посвящённых RTX 5090 Том обронил фразу: «я слышал, что она может быть быстрее на 60 или 70%», чем RTX 4090. Это очень большие изменения, если учесть, что RTX 4090 была на 50% быстрее RTX 3090.

На фоне того, что AMD не планирует выпускать сверхбыструю модель на базе RDNA 4, NVIDIA по факту становится монополистом в этом сегменте, а потому цена на ускоритель может подняться, как полагают авторы, до значения 2—2,5 тысяч долларов.

NVIDIA хочет использовать 16-контактный коннектор PCIe 6.0 на всех будущих видеокартах

Известный канал Moore's Law is Dead сообщает, что компания NVIDIA планирует радикальные изменения в конструкции видеокарт следующего поколения, которые будут заключаться в использовании 16-контактного разъёма дополнительного питания PCIe 6.0, и сделано это будет для всей линейки RTX 5000.

Данный шаг для NVIDIA выглядит логичным, поскольку упрощает цепочки поставок комплектующих — абсолютно все видеокарты будут требовать наличия шины PCIe 6.0 с шестнадцатью контактами дополнительного питания.

Такой коннектор позволяет передавать до 600 Вт энергии, в то время как топовые модели серии RTX 5000 будут потреблять 450 Вт, что оставляет некоторый запас по мощности. Средний же ценовой диапазон ускорителей будет потреблять около 300–350 Вт.

NVIDIA выпускает GeForce RTX 3050 6 ГБ

Компания NVIDIA официально выпустила новую видеокарту GeForce RTX 3050 6GB. Возможно, вам это название кажется знакомым. Это вполне объяснимо, ведь на рынке уже существует GeForce RTX 3050, только с 8 ГБ. Новая модель обладает не только меньшим объёмом видеопамяти, но и меньшей производительностью в целом.

Первый раз RTX 3050 появилась больше двух лет назад. Она была построена на базе 8 нм процессора GA106 с 2560 ядрами CUDA, 80 Tensor и 20 RT. Объём видеопамяти составлял GDDR6 с пропускной способностью 14 Гб/с составлял 8 ГБ. Позднее процессор поменяли на GA107 с теми же спецификациями, но большей энергоэффективностью.

GeForce RTX 3050

Новая модель GeForce RTX 3050 6GB также основана на GA107, вот только в нём доступны 2304 ядра CUDA, 72 Tensor и 18 RT. Шина памяти составляет 96 бит, что обеспечивает пропускную способность 168 ГБ/с. Частота в режиме Boost составляет 1470 МГц, заметно ниже 1777 МГц в старшей модели. Зато тепловой пакет равен 70 Вт, что означает питание непосредственно по шине PCIe.

Что касается производительности, то GeForce RTX 3050 6GB в среднем на 20% медленнее GeForce RTX 3050 8GB, зато она в 4 раза быстрее GTX 1650 и GTX 1050 и поддерживает DLSS Super Resolution, что многое значит.