Новости про NVIDIA

Palit показала свои решения на базе GT 220 и G210

Palit стала одной из первых компаний, представивших свои продукты на базе GeForce GT 220 и G210. Всего Palit приняла решение представить 5 карт: 4 на основе чипа GT216 и 1 — GT218.

Первые 4 ускорителя — GT 220 1 Гб DDR3, GT 220 1 Гб DDR2, GT 220 512 Мб DDR2 и GT 220 Sonic 512 Мб DDR3. Как можно ясно понять из имен этих карт, изменяется лишь объём и тип памяти, за исключением модели с именем Sonic — этот ускоритель имеет заводской разгон: вместо 635 МГц для ядра, как у первых трёх ускорителей, он работает на частоте 650 МГц.

Наконец, пятая карта основана на GeForce G210, имеет 16 потоковых процессоров, 64-битную шину данных и 512 Мб памяти DDR2. Частота ядра этого решения — 589 МГц.

В большинстве этих карт Palit использовала качественные OS-CON с низким ЭПС для надёжной работы.

Фотографии NVIDIA GeForce GT 230

Вчера состоялся официальный выход видеокарт GeForce GT 220 и G210, первых дискретных розничных 40-нм ускорителей NVIDIA. К концу месяца также должна появиться в розничной продаже видеокарта GT 240.

Однако, на сайте NVIDIA указана ещё одна модель новой линейки, которая, впрочем, вряд ли появится в рознице, так как предназначается для OEM-рынка — GeForce GT 230. В частности, эта модель используется в компьютерах Acer Aspire M3800.

Один из читателей сайта iXBT обнаружил этот ускоритель в системном блоке Acer Aspire M3641 и прислал его фотографии журналистам, благодаря чему мы можем ознакомиться с внешним видом GeForce GT 230.

Компьютер выпущен недавно, а вот карта произведена ещё летом.

К сожалению, источник ничего не говорит о характеристиках ускорителя, кроме наличия 1,5 Гб видеопамяти DDR2 и выходов D-Sub, HDMI и DVI. Однако, можно предположить, что решение основано на ядре GT216 и имеет 48 шейдерных процессоров. Частотная формула, наверняка, немного выше, чем у GeForce GT 220.

NVIDIA ожидает появления DX11-игр через 6—12 месяцев

Компания NVIDIA считает, что появление реальных игровых приложений с поддержкой DirectX 11 состоится через 6 или даже 12 месяцев. Это сказал вице-президент компании Тони Томасси, а также глава группы, работающей над программой поддержки разработчиков «The way it’s meant to be played», Ашу Ридж.

При этом он отметил, что большинство игр в своей основе всё же будет оставаться созданными для DirectX 9 с дополнительным кодом DX10 или DX11, потому что сейчас разработчики в первую очередь сконцентрированы на рынке консолей, и большинство игр лишь портируется на ПК.

В конце этого года NVIDIA представит свои первые ускорители с архитектурой Fermi и поддержкой DirectX 11. Поэтому в следующем году можно ожидать достаточно много игр с поддержкой DirectX 11: как AMD, так и NVIDIA будут прикладывать силы к тому, чтобы таких проектов было как можно больше.

Первые GeForce GT 220 и G210 появились в европейской продаже

В европейских магазинах начали появляться ускорители GeForce GT 220 и Geforce 210, при этом стоимость первого находится на уровне 60 €, а второго — 42 €.

В продаже пока отсутствуют карты от многих производителей, а потому цены, очевидно, завышены. Однако, сейчас стоимость GT 220 находится на уровне с более мощным ускорителем конкурента — ATI Radeon HD 4670.

Та же ситуация и с GeForce G210 — Radeon HD 4650 в Европе стоит 35 €. Для бюджетной карты GeForce G210 цена в 40 € слишком высокая.

Сегодня день GeForce G210 / GT 220

Сегодня прекратился срок действия соглашения между NVIDIA и её партнёрами о неразглашении сведений, касающихся её первых 40-нм ускорителей с поддержкой DirectX 10.1, и сегодня множество производителей видеокарт официально представят свои решения на базе GeForce GT 220 и G 210. Журналисты могут публиковать обзоры новых карт.

Итак, GT 220 (чип GT216) имеет 48 шейдерных процессоров, 128-битную шину данных, выйдет в вариантах с памятью DDR2 и DDR3. Стандартный ускоритель имеет частоту ядра 615 МГц, шейдерных блоков — 1335 МГц и 1 Гб памяти GDDR3 — 1780 МГц.

Более медленная карта, G210 (чип GT218) имеет лишь 16 шейдерных процессоров (по слухам, этот ускоритель должен был иметь 24 шейдерных процессора), шина памяти решения — 64-битная, а для видеопамяти используются чипы DDR2 800 МГц. Ядро и шейдерные блоки работают на частоте 589 МГц и 1404 МГц соответственно. По мощности это решение примерно в 3 раза медленнее, чем GT 220.

Обе карты не нуждаются в подключении внешнего питания, а большинство из решений на их основе будут низкопрофильными.

По предварительным тестам новых 40-нм карты NVIDIA GeForce GT 220 и G210 заметно уступают 55-нм ATI HD 4670 и 4650, стоимость которых сейчас находится на уровне 60 €. Новые карты подойдут для очень нетребовательных игроков или для построения домашнего мультимедиа-центра. Сейчас цена G 210 начинается с 45 $, а GT 220 (DDR2) — с 70 $. Однако, наверняка, ускорители очень скоро опустятся в цене.

Тестирование NVIDIA GeForce GT 220

Буквально за день до выхода видеокарты GT 220, ресурс GPUCafe смог протестировать один из новых продуктов. Напомним, решение основано на 40-нм чипе GT216, имеет 48 шейдерных процессоров и поддерживает DirectX 10.1.

Ресурс сравнил эту видеокарту с конкурентом в лице Radeon HD 4670. В результате выяснился досадный факт: отставание GT 220 от HD 4670 составляет в среднем 30—35 % и сокращается до 10 % только в одной игре — GRAW 2. В большинстве игр карту сильно ограничивает низкая пропускная способность памяти.

Ресурс утверждает, что рекомендованная цена GeForce GT 220 составляет 80 $, тогда как Radeon 4670 можно приобрести значительно дешевле — за 60 $. Однако, 40-нм техпроцесс, а также очень простая печатная плата должны позволить NVIDIA быстро скорректировать цену для успешной конкуренции.

Первые тесты NVIDIA GeForce GT 240

Как известно, в розничную продажу на днях поступят первые 40-нм видеокарты NVIDIA GeForce GT 210 и GeForcre GT 220. Примерно через месяц должен появиться и самый интересный представитель нового семейства — GeForce GT 240. В руки сотрудников ресурса IT168 попала такая карта, и они опубликовали её первые тесты.

Напомним, GT 240 основана на ядре GT215, поддерживает DirectX 10.1, имеет 96 шейдерных процессоров. Ускоритель будет работать со 128-битной шиной данных и комплектоваться 1 Гб памяти GDDR3 (частота 1800 МГц) или 512 Мб памяти GDDR5 (частота — 3600 МГц). Частоты ядра и шейдерных блоков составят 550 и 1340 МГц соответственно.

В результате можно сказать, что производительность нового решения находится на уровне между GeForce 9600 GT и GeForce 9800 GT, при этом вариант с памятью GDDR3, конечно, оказался более медленным, несмотря на вдвое больший объём.

При разгоне GeForce GT 240 (GDDR5) до уровня 650/1590/3600 МГц (ядро/шейдеры/память) ускоритель оказывается быстрее даже чем GeForce GTS 250 в 3DMark Vantage в режиме Performance, однако при высоких разрешениях показывает плохую производительность.

Cisco работает над веб-сервером на основе GPU

Сфера применения параллельных вычислений общего назначения средствами видеокарт может быть весьма обширной и, в том числе, затрагивает область сетевого оборудования.

Сэнфорд Рассел, главный управляющий подразделением CUDA в NVIDIA, сообщил, что компания Cisco заинтересовалась ускорителем Fermi, обладающим 512 вычислительными ядрами, для создания веб-сервера на его основе, который смог бы обслуживать одновременно тысячи людей.

К сожалению, подробностей по этому поводу пока нет. И нам трудно судить, для каких именно задач будут использоваться карты Fermi. Безусловно, расчёты средствами видеокарт не универсальны и не могут заменить функции центральных процессоров. Вероятно, Fermi будет выполнять некие специализированные задачи, вроде маршрутизации, шифрования и анализа сетевого трафика.

ION 2 выходит в 2009 году

То, что в виде слухов витало уже достаточно давно, наконец, было подтверждено главой подразделения чипсетов в NVIDIA, Дрю Генри: компания начнёт поставки чипсета ION 2 ещё в этом году.

К сожалению, он не поделился сведениями о заказчиках и о первых устройствах на базе новой платформы, равно как и характеристиками нового чипа системной логики. Платформа ION нового поколения будет поддерживать процессоры Pentium 4, Core, Core 2, Atom и VIA Nano. К сожалению, из-за отсутствия лицензии на шину DMI, поддержки процессоров серии  Core iX не будет.

По слухам, в новом чипсете количество шейдерных процессоров возрастёт более чем вдвое. Другими словами их будет больше 32. Это позволит увеличить игровую производительность платформы, её привлекательность для CUDA-приложений.

NVIDIA также поддерживает движок Bullet Physics

На прошлой неделе AMD сообщила о начале сотрудничества с Pixelux Entertainment с целью ввести поддержку аппаратного ускорения в физический движок с открытым кодом Bullet Physics, который занимает третье место (около 10 %) по популярности среди разработчиков. Движок будет переписан для работы с открытым API OpenCL, то есть, в отличие от PhysX, движок Bullet будет работать как на картах ATI, так и NVIDIA.

Журналисты сайта Icrontic обратились к руководителю технического маркетинга NVIDIA Тому Питерсену с целью узнать, что сможет изменить движок Bullet в политике компании и на рынке в целом.

Icrontic: Собирается ли NVIDIA поддерживать Bullet Physics, ведь он основан на открытых индустриальных стандартах, поддерживаемых NVIDIA?

Том Питерсен: NVIDIA поддерживает Bullet (мы встретились с Эрвином на технологической конференции по видеокартам). Мы приветствуем любые программы или API, которые помогают кому-то более эффективно использовать GPU. По существу, по словам Эрвина, он использует видеокарты NVIDIA для разработки своего кода. По этому поводу он даже предоставил нам цитату:

«GPU-ускорение Bullet с помощью OpenCL будет работать с любыми совместимыми драйверами, для нашей разработки мы используем видеокарты NVIDIA GeForce и даже употребляем примеры кода из их OpenCL SDK, они замечательный технологический партнёр.

Эрвин Камэнс, Создатель движка Bullet Physics».

Icrontic: Какую помощь, если она есть, NVIDIA намерена предоставить проекту Bullet Physics?

Том Питерсен: Мы будем продолжать оказывать любую помощь, которая в наших силах, для команды Bullet. В настоящее время они используют драйвер OpenCL, предоставленный NVIDIA.

Icrontic: Как по мнению NVIDIA повлияет создание третьего физического движка на потребителей?

Том Питерсен: NVIDIA продвигает использование GPU для улучшения игрового процесса на ПК. Если Bullet сможет сделать то же для некоторых разработчиков в некоторых играх, то мы поддерживаем это. Одновременно, NVIDIA продолжит вводить новшества в PhysX на своих видеокартах. Мы предоставим комплексное решение, включающее инструменты разработки, настройки производительности, управления информационным содержанием и поддержку разработчиков — это даст весомые преимущества пользователям нашей продукции, как в случае с игрой Batman Arkham Asylum.

Icrontic: Bullet — это «правильный ответ» на несовместимость между PhysX и Havok?

Том Питерсен: Я не думаю, что это единственное решение. Каждая реализация физики имеет свои сильные стороны. Позиция NVIDIA заключает в том, что хорошая производительность и комплексное решение необходимы, чтобы предоставить мощное решение. Мы много уделяем внимания нашей разработке APEX (среда разработки, позволяющая реализовывать эффекты разрушений, воздуха, одежды, растений, а также инструменты отладки), чтобы сделать использование PhysX для разработчиков более простым. Если говорить коротко, то NVIDIA инвестирует средства в интеллектуальные разработки, и мы поддерживаем независимые инициативы, делающие то же самое.

NVIDIA стоит на позиции продвижения собственного движка PhysX, который, очевидно, врядли намерена делать в ближайшее время индустриальным стандартом, то есть решением с открытым кодом и поддержкой аппаратно-программных интерфейсов OpenCL или DirectCompute. С другой стороны, NVIDIA не хочет оставлять аппаратное ускорение Bullet Physics эксклюзивной технологией ATI, и поэтому оказывает посильную помощь проекту.

Отсюда видно, что Bullet Physics должен стать инструментом № 1 среди разработчиков, чтобы аппаратное ускорение физики стало индустриальным стандартом. Но для этого, как справедливо отметил Том Питерсен, необходимы мощные инструменты разработчика, сопоставимые с теми, которые предоставляет NVIDIA. В противном случае, большая часть игровых проектов будут разрабатываться с учётом того, что физические расчёты должны осуществляться центральным процессором, как это происходит в настоящее время даже с многими приложениями, использующими PhysX SDK.

NVIDIA потратила большие деньги на покупку бесплатного движка PhysX и его дальнейшее продвижение и, конечно, должна получить от этих затрат максимальную отдачу. То есть компании выгодней, чтобы PhysX был популярнее других решений и ускорялся только на видеокартах GeForce. AMD, в свою очередь, утверждает, что PhysX станет бесполезным для NVIDIA. Заявление бесспорное, но когда это произойдёт, судить очень сложно.