7994420702;horizontal

Прощай видеокарта?, часть 3

 

Препятствия на пути интегрированных решений (продолжение)  

Стерео  

Очередной бум стереотехнологий не был кем-то предсказан и во многом осуществился благодаря компании NVIDIA, не только сделавшей достаточно удачный продукт 3D Vision, не только создавшей ему среду обитания (то, на чём прогорело немало фирм в прошлом), но и вложившей большие деньги в рекламу и продвижение. Стереотехнологии резко повысили требования к графической подсистеме: удвоение частоты кадров, стереомониторы с диагональю от 22”, возврат к более традиционным (потому как более стереосовместимым) методам программирования эффектов, без возможности делать всё малой кровью в двумерном пространстве экрана. Не все видеокарты, даже из числа ориентированных на продвинутых геймеров, оказались готовы к подобной задаче.

Вместе с тем, стерео является типичным added value, ничем принципиально не отличаясь от многоканальности и технологий реалистичных звуковых расчётов, к которым прибегли производители звуковых карт. Это продукция, так сказать, если и не элитного потребления, то уж точно не для каждого. Стереотехнологии сами по себе уже не единожды переживали подъемы, всегда заканчивавшиеся спадами и почти полной потерей интереса потребителей. В середине 90-х все выглядело очень перспективно: волна интереса к виртуальной реальности из Голливуда, шлемы VFX и Cybermaxx, стереорежимы в играх (конечно, в основном примитивный анаглиф) и даже очки в коробках (Magic Carpet). Уже к 1999 году от этого богатства ассортимента не осталось ничего. Хотя пока стерео показывает неплохую «физическую форму», за два года продаж 3D Vision список совместимых мониторов увеличился с трёх моделей до одиннадцати, а список ноутбуков с технологией лишь недавно пополнился компаньонами к одинокому продукту ASUS. Не очень хорошие признаки.

Но даже если спада не последует и стерео пришло навсегда, малоизвестная до недавнего времени компания TrioViz уже продемонстрировала, как с помощью шейдера постобработки и дешёвых очков получить какой-то стереоэффект. Релиз Batman: Arkham Asylum GOTY для PlayStation 3 и Xbox 360 получил неплохие отзывы. Так что на вопрос о стерео разработчикам игр и интегрированных графических решений можно будет сказать — «Есть», а какое оно — это уже следующий вопрос. Судя по тому, как программные эмуляции трёхмерного звука в своё время удовлетворили большинство пользователей в играх, разработчикам дискретных GPU всерьез рассчитывать на стерео в борьбе за потребителя не стоит. Ведь это не тот режим, которым пользуются постоянно, а покупать гору оборудования ради пары часов развлечения по выходным экономическая ситуация позволяет далеко не всем.

GPGPU  

Появление GPGPU технологий стало сильным ударом по производителям центральных процессоров. Их продукция не очень красиво выглядела на диаграммах теоретических GFLOPS, еще хуже — в сравнительных испытаниях на «числодробилку». Но всё течет, все изменяется. В апреле этого года IBM опубликовала исследование, в котором восьмиядерный процессор IBM Power 7 превзошел графический процессор GeForce GTX 285 по производительности. Вплотную приблизилась к GPU NVIDIA и двухпроцессорная восьмиядерная система на базе Xeon от Intel. В более новом исследовании вычислительный модуль NVIDIA Tesla 2050 с архитектурой Fermi восстановил статус-кво, но ни о каком 100-кратном преимуществе речь больше не идёт.

CPU/GPU Power 7 Power7 x2 Xeon X5570 x2 Xeon x5680 x2 GeForce GTX 285 Tesla 2050
Ядер 8 (SMTx4) 16 (SMTx4) 8 (SMTx2) 12 (SMTx2) 240 448
GFLOPS 70,31 108,2 38,6 39,5 40,2 151.2

С ростом числа ядер (Intel уже предлагает восьмиядерные процессоры в серверном сегменте) графические процессоры начального и даже среднего уровня утратят большую часть преимущества над CPU. Наиболее актуальные задачи разработчики CPU уже начали покрывать специализированными расширениями: AES для криптографии и AVX для научных задач и видеоускорения.

Большинство пользовательских приложений, использующих CUDA, Stream или OpenCL, на самом деле не предъявляют сверхбольших требований к производительности GPU — неплохие результаты достигаются и на видеокартах среднего ценового диапазона. Такие приложения в будущем могут просто мигрировать на модель CPU+IGP, благо один из ведущих производителей GPU заодно является и производителем CPU, и внёс центральный процессор как полноценный target device в стандарт OpenCL. Для тех же, кому максимальная теоретическая производительность нужно строго по делу, будут выпускаться (и уже выпускаются) специальные ускорители, которым видеокартами быть вовсе необязательно.

PCGamesHardware Metro 2033 PhysX benchmark

Что касается GPGPU в играх, то создатели уже упоминавшейся игры Metro 2033 продемонстрировали, что приложение, написанное с помощью даже наиболее GPU-ориентированного SDK игровой физики, вполне может работать на современных CPU.

Заключение  

Интеграция графического ядра в центральный процессор несёт немало преимуществ:

  • Снижение стоимости готовых компьютеров за счет исключения дискретной видеокарты.
  • Уменьшение энергопотребления и общего теплового пакета.
  • Более стабильная платформа для разработчиков.
  • Неограниченный объем видеопамяти — просто добавьте ОЗУ.
  • Снижение зависимости производительности графической подсистемы от CPU — не секрет, что сейчас CPU зачастую выступает «гирей», ограничивающей быстродействие GPU в реальных задачах.

Если интегрированные ядра смогут обеспечить производительность, сравнимую или даже превышающую производительность дискретных карт начального уровня (а результаты предварительных тестов говорят, что смогут), в следующем году анонсов изделий вроде GeForce GT 420 мы уже не увидим. Видеокарты среднего уровня останутся, но второе поколение CPU-IGP поставит под сомнение уже и их существование. Ну а топовые «обогреватели» будут всегда — но через пару-тройку лет у разработчиков GPU возникнут серьезные проблемы с возвратом инвестиций в разработки высокопроизводительных графических архитектур. Разработка G80 в своё время обошлась NVIDIA в USD 400 млн., Fermi, по некоторым оценкам, вдвое больше. Таких денег в GPU отрасли может просто не стать.

Хотя в индустрии высоких технологий заниматься предсказаниями — работа неблагодарная, попробуем представить, как интегрированные решения AMD и Intel повлияют на состав компьютеров ближнего будущего.

Ноутбуки: здесь IGP/APU решения упадут на подготовленную почву. Трудно будет найти причины установить дискретный GPU или видеокарту в ноутбук с диагональю меньше 17” — всё равно при работе от батарей и современные модели стараются переключаться на ядро чипсета. Рискнем предположить, что в будущих ноутбуках на базе следующих мобильных платформ Intel и AMD дискретные видеокарты станут исключением, для немногочисленного сегмента переносных рабочих и игровых станций.

HTPC: уже в Intel G45 и AMD 785 в «железе» были реализованы все необходимые функции по работе с видео, даже превышавшие возможности большинства дискретных видеокарт. Если вендоры наведут порядок в отделах драйверописателей, дискретным видеокартам там делать будет нечего.

Домашние ПК: здесь, вероятно, будут применяться оба подхода, в зависимости от ценовой категории. Но вот из эталона данного класса, iMac, дискретные решения вполне могут полностью исчезнуть. Соблазн для Apple слишком велик: еще миниатюризировать системную часть, снизить энергопотребление, упростить систему охлаждения, уменьшить себестоимость. А пример Apple всегда заразителен.

ПК для игр: тут в ближайшие несколько лет дискретные видеокарты позиции не сдадут — они по-прежнему будут главной деталью компьютера. Но с учётом задержки выхода консолей следующего поколения и нарастающей ММО-зации, разработчики игр, безусловно, поддержат интегрированные решения, а ради охвата аудитории графическими «завлекалочками» для прогеймеров пожертвуют без колебаний. Это может вылиться в съеживание самого рынка ПК для игр, и рынка высокопроизводительных графических решений — тоже.

За будущее компании AMD беспокоиться не стоит — она прочно стоит на двух ногах и не будет конкурировать сама с собой. NVIDIA же, пожалуй, уже стоит всерьез задуматься о выходе на рынок центральных процессоров x86. Например, купив VIA.

 Благодарим Валанчуса Александра a.k.a. Shurhen за помощь при подготовке статьи.

Обсудить материал на Форуме.

15 сентября 2010 года
20 октября 2010 года






Похожие статьи

  • Исследование зависимости скорости современных карт класса Low и Middle-End, от мощности CPU

    Исследование скорости современных видеокарт низкого и среднего уровня, в системах низкого и среднего уровня, а так же морально устаревших системах. Тестирование в разных игровых ситуациях и при разных графических настройках.

  • Процессор или видео: проблема выбора

    Рассмотрен вопрос, что стоит апгрейдить в первую очередь — видеокарту или процессор на «обычных» машинах c частотой CPU 450…600MHz. Использовались приложения: Quake3, MDK2, 3Dmark 2000, Unreal, UT, Mercedes-Benz Truck Racing, NFS Porsche Unleashed, Colin McRae Rally 2, X-Isle

  • Менять или не менять? Обзор GIGABYTE GV-N450-1GI на фоне GeForce 9800 GT

    Обзор видеокарты GIGABYTE GV-N450-1GI и небольшое исследование целесообразности замены «старушки» GeForce 9800 GT на GeForce GTS 450. Тесты GPGPU и PhysX. 

  • Добрый NVIDIA Inspector

    Краткий обзор новой утилиты для разгона, мониторинга и управления видеокартами NVIDIA.

  • NVIDIA: Давид против Голиафа

    Такого количество событий, которые происходили вокруг NVIDIA, мы не видели давно. «Трения» между вышеупомянутой компанией и Intel мог не заметить только человек, не интересующийся рынком ИТ вообще. Что же стало катализатором? Думаю, не нужно глубоко копать, чтобы увидеть причину, так как она лежит на поверхности — это общие интересы, и когда они пересекаются, то кому-то нужно уйти. Возможно, так подумало руководство Intel, благо рычагов, на которые можно надавить, у такого гиганта много. В этой статье предпринята попытка хоть как-то упорядочить и систематизировать информацию и отфильтровать правду от лжи. Конечно же, это частное мнение, поскольку до конца объективным и точным в данной ситуации не может быть никто (конкурсная работа).