Новости про GPGPU и NVIDIA

NVIDIA готовит A100 с жидкостным охлаждением

В Сети появилась фотография нового варианта ускорителя A100 Tensor Core от NVIDIA, который имеет водяную систему охлаждения.

Ускоритель A100 основан на GPU GA100 Ampere. Он является предшественником ускорителя для ЦОД модели H100 Hopper. Таким образом, речь идёт о новом варианте с жидкостным охлаждением модели A100 PCIe, выпущенной год назад. Это не вариант SXM, используемый для систем HGX/DGX A100.

Видеоускоритель NVIDIA A100

Стоит отметить, что жидкостное охлаждение в серверах не принято, и сейчас мы наблюдаем от NVIDIA экстраординарный шаг. Зато данное решение обладает тонкой конструкцией со штуцерами для подключения охлаждения, расположенными на задней стенке.

Водяное охлаждение ускорителя A100 в открытом виде
Жидкостное охлаждение A100 в корпусе

Стоит отметить, что жидкостное охлаждение для ускорителей A100 уже широко применяется, однако для этого требуется ручная замена массивного воздушного охлаждения. Пассивное воздушное охлаждение часто оказывается неэффективным, а потому NVIDIA и решила применять водяное охлаждения.

NVIDIA скоро изготовит мультичиповый GPU Hopper

В Сети появились слухи, что в скором времени NVIDIA изготовит новый GPU под именем Hopper. Тут важно отметить, что это не игровое решение, и вы не увидите карту GeForce RTX 4080 Ti на его основе. Тем не менее, это инновационное решение.

В Twitter, в аккаунте Greymon55, появилось шифрованное сообщение с аббревиатурой «NHWTOS», которая через пару часов была расшифрована. Она гласит «NVIDIA's Hopper Will Tape Out Soon», то есть «NVIDIA Hopper скоро будет отпечатан».

Эта новая архитектура примечательна тем, что в ней используется мультичиповый модуль, вместо традиционного монолитного. И хотя этот процессор предназначен для суперкомпьютеров, нам он интересен по причине того, что его опыт может быть применён на поколении Lovelace или даже обновлённой версии Ampere, который планируются в 2024 и 2022 годах соответственно.

Переход от монолитной структуры GPU к мультичиповой

Мультичиповая технология в Hopper аналогична той, что использует AMD в своих центральных процессорах Zen и графических процессорах RDNA. Она изготавливает свои процессоры на TSMC, и новый чип NVIDIA также должен быть изготовлен на TSMC по 5 нм нормам. Ожидается, что чиплет из двух ядер GPU предложит в сумме 288 потоковых мультипроцессоров, что в 2,6 раза больше, чем у GPU NVIDIA A100. Кроме того, Hopper будет более энергоэффективным, чем Ampere. Считается, что его энергетическая эффективность вырастет в 3 раза.

Как обычно, к подобным слухам следует относиться с большой осторожностью и скептицизмом. Тем более, что они получены из неизвестных источников.

NVIDIA отказывается от бренда Tesla

Компания NVIDIA использовала бренд Tesla для своих продуктов GPGPU начиная с 2007 года.

На прошлой неделе, когда фирма представила графический процессор для ЦОД с кодовым именем Ampere, она назвала его A100. Никакой отсылки к «Tesla». Это слово просто исчезло из официальных сообщений компании.

Ускоритель NVIDIA Tesla V100

Немецкий сайт Heise сообщает, что крупнейший производитель дискретных видеоускорителей решил отказаться от бренда Tesla, чтобы избежать возможных недоразумений и путаницы с одноимённой компанией-производителем электрокаров Илона Маска. Сообщается, что NVIDIA провела изменения в прошлом году, когда осуществила ребрендинг ускорителей на основе GPU Turing, заменив «Tesla T4» на «NVIDIA T4».

О возможных юридических проблемах ничего не сообщается. Кроме того известно, что компании активно сотрудничали друг с другом по обеспечению автопилота на электрокарах Tesla.

NVIDIA предсказывает общедоступность суперкомпьютеров

В ходе недавней конференции в Остине, штат Техас, исполнительный директор NVIDIA Дзень-Хсунь Хуан рассказал, что видит широкие возможности для распространения суперкомпьютеров во многих отраслях промышленности.

Хуан пояснил, что суперкомпьютерные технологии хорошо продвигаются за пределы традиционных суперкомпьютерных систем, и технологии GPU станут частью будущих технологий, таких как автономные транспортные средства и персональные роботизированные помощники. Компания NVIDIA уже активно работает в этих отраслях, предложив автомобильный компьютер NVIDIA Drive PX и модуль машинного обучения Jetson TX1.

За последние пару лет графические процессоры нашли своё применение во многих суперкомпьютерах. По словам NVIDIA, использование GPU акселераторов в списке top500 суперкомпьютеров растёт ежегодно на 50%, а графический процессор Tesla использован в 23 из 24 новых суперкомпьютерах с GPGPU ускорением.

В будущем машинное обучение увеличит спрос на GPU ещё больше. Машинное обучение является «первоочередным применением высокопроизводительных вычислений для потребителей» — отметил Хуан. «Технология позволит технологии стать автономной в сложности реального мира и станет инструментом для производства автономных транспортных средств и машин, подобных персональным роботам-помощникам».

Утилита HWiNFO обновилась до версии 4.32

Словацкая утилита HWiNFO32/64 — это одна из старейших и мощнейших утилит по получению информации о системе, её диагностирования и мониторинга в реальном режиме времени.

Программа позволяют получать сведения о системе, а диагностическая часть поддерживает самые свежие компоненты, промышленные технологии и стандарты. Эти инструменты нацелены на распознавание и извлечение всей возможной информации об аппаратном обеспечении компьютера, что делает утилиты подходящими для пользователей, ищущих драйвера, производителей компьютеров, системных интеграторов и технических экспертов.

В новой версии основное усилие разработчиков было направлено на исправление показаний датчиков материнских плат. Также была расширена база данных программы, в которой появились и уточнились сведения об интегрированных GPU и платах GPGPU.

Полный перечень изменений приведен ниже:

  • Исправлен отчёт с предупреждением о диске на некоторых SSD.
  • Добавлены NVIDIA Tesla K40m, K40st, K40s.
  • Улучшен мониторинг датчиков на материнских платах MSI серии 8.
  • Исправлен датчик на CPU Intel Haswell-U/Y.
  • Улучшено распознавание CHiL CHL8318/CHL8266 на GPU.
  • Улучшен мониторинг датчиков на MSI NF750-G55.
  • Исправлено сообщения о показаниях датчиков на GPU AMD после отключения питания.
  • Исправлена нумерация поздних AMD DGPU.
  • Исправлен мониторинг датчиков на ASUS MAXIMUS VI.
  • Добавлен мониторинг TSOD на SNB/IVB/HSW/BDW-E/EN/EP/EX.
  • Исправлен выбор размера шрифта для LG LCD.
  • Исправлены сообщения о частотах GPU на Haswell GT1.5.
  • Добавлена поддержка ITE IT8620E HW monitor.
  • Улучшен мониторинг датчиков на GIGABYTE серии A88X.

Нужной вам разрядности (32 или 64 бита) утилиту можно загрузить с официального ресурса. Как и раньше, программа HWiNFO32/64 беспроблемно работает на всех версиях ОС Windows от XP до 8.1, и, как и прежде, она совершенно бесплатна.

NVIDIA представила ускоритель Tesla K40

В ходе конференции SC13 компания NVIDIA представила самый производительный в мире видеоускоритель Tesla K40, сделав это вслед за AMD Firepro S10000 12 GB.

Как и положено ускорителям Tesla, он предназначен для суперкомпьютеров и он на целых 40% превышает по производительности Tesla K20X. Кроме того, этот ускоритель в 10 раз быстрее самого быстрого на сегодня CPU. Таким образом, ускоритель Firepro S10000 12 GB пробыл на вершине всего несколько дней.

«GPU ускорители стали мейнстрим продуктом в высокопроизводительных ПК и суперкомпьютерах, позволяя инженерам и учёным создавать новшества и делать научные открытия», — заявил Сумит Гупта, главный менеджер NVIDIA по продуктам ускоренных вычислений.

Что касается аппаратной части, то K40 получил 2880 ядер CUDA с базовой частотой 745 МГц и до 875 МГц в режиме Boost, в то время как прошлое поколение, K20X, имело 2688 ядер частотой 732 МГц. В новой плате также используется более быстрая память GDDR5 частотой 3 ГГц, объём которой также как и противоборствующего лагеря составляет 12 ГБ.

В пресс-релизе компания указала, что  «ускоритель Tesla K40 обходит остальные ускорители по двум главным показателям вычислительной производительности: 4,29 терафлопса с обычной точностью и 1,43 терафлопса пиковой производительности с двойной точностью». Надо сказать, что это не совсем правда, поскольку AMD удалось сделать свой ускоритель с производительностью в 1,48 терафлопса при двойной точности вычислений.

Несмотря на недавний анонс, у NVIDIA уже есть первый клиент на новые платы. Им стал Техасский современный вычислительный центр в Остине, который планирует запустить новую интерактивную систему удалённой визуализации и анализа данных, под именем Maverick, уже в январе будущего года.

Появились сведения о карте NVIDIA Tesla K40 Atlas

В Сети появились сведения о том, что компания NVIDIA готовит новый однопроцессорный компьютерный ускоритель модели Tesla K40 с кодовым именем Atlas.

Благодаря слайду NVIDIA, утекшему в Сеть и опубликованному китайским ресурсом ByCare, мы теперь можем знать его спецификации. Итак, карта будет основана на GPU GK180. Об этом чипе пока ничего неизвестно, но учитывая имеющийся слайд, он не слишком сильно отличается от GK110.

Процессор имеет 2880 ядер CUDA. Общая производительность ускорителя составит 4 Тфлопса при обычной точности и 1,4 Тфлопса при расчётах с двойной точностью. Также плата получит 12 ГБ памяти GDDR5, что вдвое больше, чем у Tesla K20X. Память будет иметь пропускную способность 288 ГБ/с. Также ускоритель должен иметь функцию динамического разгона, который работает в режимах ANSYS и AMBER. По сравнению с прошлым поколением, новый ускоритель будет работать с шиной PCI-Express 3.

Сообщается, что карта будет продаваться в двух версиях: в виде дополнительной карты и SXM. В зависимости от этого будет меняться и энергопотребление, которое составит 235 Вт или 245 Вт соответственно.

NVDIA обещает 10% прирост производительности CUDA благодаря LLVM

Разработчик микропроцессоров, компания NVIDIA, обновила CUDA библиотеку базовых классов для объектно-ориентированного GPGPU программирования, включив в неё для увеличения производительности низкоуровневую виртуальную машину — low level virtual machine (LLVM).

В прошлом году компания объявила о значительных изменениях в их проприетарном программном фреймворке CUDA, а несколько дней назад выпустила первую версию изменения, которое включает компилятор LLVM. По утверждению NVIDIA, LLVM обеспечит «постоянное 10% ускорение в производительности приложений».

Кроме того, что NVIDIA теперь восхваляет мощь LLVM компилятора, фирма также предлагает виртуальный профилировщик, который поможет программистам оптимизировать их код. Суть в том, что программирование для GPGPU в большинстве случаев требует значительных оптимизаций, чтобы выжать каждую последнюю каплю скорости из GPU.

Кроме LLVM компания расширила библиотеку обработки сигналов. Обычно самостоятельный цифровой сигнальный процессор используется исследователями для симуляции определённых нагрузок, но с растущей библиотекой обработки сигналов некоторые нагрузки могут быть запущены на графической платформе NVIDIA с включённым CUDA.

Но пока NVIDIA наслаждалась популярностью CUDA в исследовательском сообществе, на горизонте появился серьёзный конкурент в лице OpenCL — открытого языка GPGPU вычислений. Тем не менее, NVIDIA утверждает, что им абсолютно безразлично какой именно язык используют программисты, до тех пор, пока они используют их графические платформы, продвигая CUDA в качестве отличного способа улучшения продаж GPU продуктов компании.

Бета-драйверы NVIDIA для Linux 270.26

С поддержкой GeForce GTX 560 Ti.

Новый бета-драйвер NVIDIA версии 270.26 для Linux содержит следующие изменения:

  • добавлена поддержка видеокарт GeForce GTX 560 Ti;
  • добавлена опция конфигурации X Interactive, отключение которой улучшает совместимость продолжительных GPGPU-вычислений с Х-интерфейсом;
  • исправлен ряд ошибок в реализации VDPAU.

Загрузить дистрибутивы можно по ссылкам ниже. Поддерживаются видеокарты GeForce и Quadro на базе NV40 и более новых архитектур.

Глава NVIDIA поделился видением будущего GPGPU-технологий

CUDA останется основным API, поддерживаемым NVIDIA.

Глава NVIDIA Jen-Hsun Huang в интервью британскому отделению издания ZDNet ответил на вопросы о будущем GPGPU-технологий. Мы приводим выдержку высказанных им суждений:

  • NVIDIA активно поддерживает открытый стандарт OpenCL, тем более что Khronos Group в настоящее время возглавляет сотрудник компании. NVIDIA первой реализовала поддержку OpenCL, причём она всё еще считается лучшей в отрасли, и будет поддерживать OpenCL и дальше.
  • Технологии меняются очень быстро, производительность увеличивается четырёхкратно каждые два года, новые функции внедряются постоянно. В силу этого NVIDIA концентрируется на CUDA, не желая немедленно «выкатывать» новый общий стандарт. Тем более, что OpenCL такого внимания и не требует — там есть множество людей, в том числе из IBM, AMD, Intel, и NVIDIA не нужно тащить всё в одиночку.
  • CUDA получил большее распространение, чем OpenCL, в силу большей истории и инвестиций в разработку, большего числа работающих с ним людей, большего качества инструментов разработки, компилятора, надёжности рабочей среды.
  • NVIDIA не пытается каким-то способом полностью заменить CPU или нарушить их работу. Операционные системы и офисные приложения будут продолжать работать на CPU — но будет возможно прибегнуть к силе GPU для того, чтобы «проломить» определённые задачи.
  • Будущее за гетерогенной средой, в которой встретятся нарастившие мощь векторной обработки данных CPU и GPU с параллельной обработкой данных, научившиеся решать более сложные типы задач. В такой среде все приложения будут работать невероятно быстро.
  • Сейчас ситуация с приложениями такая, что они не работают, не работают, а потом раз — и работают очень быстро. Технологии вроде виртуальной памяти и синхронизации данных в памяти облегчат программирование. В целом будет лучше, если приложения будут работать сразу, пусть и лишь в три раза быстрее. Затем можно будет заниматься оптимизацией.
  • Сейчас графические процессоры лучше всего работают с одним приложением, так устроен их конвейер, следствие stateful-подхода. К примеру, одна большая программа исполняется на многих GPU. В будущем будет иная ситуация: множество приложений, использующих один GPU. NVIDIA работает над тем, чтобы обеспечить возможность использования обоих подходов.
  • В будущей архитектуре сервер с одним модулем Tesla сможет одновременно предоставить игровой ускоритель для сеанса геймера, Quadro-ускоритель для сеанса дизайнера автомобиля и GPGPU-ускоритель для сеанса высокопроизводительных вычислений. Можно будет одновременно заниматься вычислениями и визуализацией в отдельном «облаке», получая высококачественную картинку на экран компьютера, планшетного ПК или телефона.
  • Ключ к созданию подобных архитектур — отказ от копирования данных туда-сюда. NVIDIA совместно с InfiniBand разрабатывает решение, которое позволит избежать постоянного копирования данных из системной памяти в видеопамять и обратно. Это позволит частично снять остроту проблемы полосы пропускания каналов связи, хотя всё равно всегда будут требоваться как можно более быстрые методы передачи данных.

Будем надеяться, что в погоне за раскрывающими перспективами облачных сред и распределённых вычислений компания не забудет совсем про сегмент, собственно, видеокарт для конечных ПК.