Компания SK Hynix готовится к началу массового производства 12-слойной памяти HBM3E, при этом следующее поколение памяти, HBM4, будет готово к поставкам во второй половине 2025 года.
Новая 12-слойная HBM3E и будущая HBM4 были представлены SK Hynix на конференции SEMICON Taiwan 2024.
Компания отметила, что 12-слойная HBM3E была предоставлена NVIDIA и протестирована ещё в марте 2024 года, а в массовое производство началось уже + месяцев спустя. Что касается HBM4, то она будет предназначена в первую очередь также для NVIDIA и её GPU Rubin R100 AI.
По информации Reuters у компании NVIDIA имеются большие проблемы с использованием чипов памяти HBM3 производства Samsung, что не позволило финализировать процесс валидации.
Информационное агентство ссылается на нескольких своих источников, которые утверждают о начличии больших проблем у Samsung с её чипами HMB3. Они заключаются в том, что чипы не просто горячие, что само по себе крайне важно для NVIDIA, которая уже завершила верификацию систем охлаждения, но и потребляют больше энергии, чем нужно. Сообщается, что Samsung пытается провести валидацию HBM3 и HBM3E у NVIDIA ещё с 2023 года, а значит, проблема длиться уже более 6 месяцев.
Проблема наблюдается как с 8-слойными, так и с 12-слойными стеками HMB3E, а это означает, что NVIDIA сейчас может использовать лишь память от Micron и SK Hynix. В чём кроется проблема у Samsung, в производстве пластин или упаковке чипов — не ясно. Сам Reuter полагает, что корейский гигант просто не успел отладить производство и поспешил с выпуском продукта. В то же время Samsung в реакции на статью говорит о проблемах кастомизации под требования NVIDIA.
Компания SK Hynix сообщила о том, что она является первой в мире, разрабатывающей 12-слойную память HBM3 ёмкостью 24 ГБ, что делает эти модули самыми ёмкостными в мире.
В настоящее время опытные образцы данных чипов начали поставляться заказчикам. Модули HBM3 являются третьим поколением этой высокоскоростной памяти, после HBM, HBM2 и HBM2E.
В модулях объёмом 24 ГБ разработчики увеличил плотность на 50%, по сравнению с предшествующим поколением, выпущенным в июне прошлого года. Выпуск новой памяти является ответом SK Hynix на высокие требования в сегментах ИИ-чатботов. Данная память будет доступна во второй половине текущего года.
Для увеличения эффективности и производительности своих продуктов инженеры SK Hynix применили технологию Advanced Mass Reflow Molded Underfill (MR-MUF), а также сквозные связи Through Silicon Via (TSV), что позволило на 40% уменьшить толщину чипа DRAM, и общий размер новой микросхемы остался таким же, как был у 16 ГБ чипов.
Компания SK Hynix объявила о том, что начала массовое производство памяти HBM3, самой быстрой в мире оперативной памяти.
С момента объявления разработки памяти HBM3 до начала промышленного производства прошло 7 месяцев, что лишь подтверждает ведущую роль компании на этом рынке. С развитием таких передовых технологий, как искусственный интеллект и Big data, крупнейшие мировые компании ищут способы ускорить обработку данных, для чего и требуется максимально быстрая память.
Недавно компания NVIDIA завершила апробацию образцов памяти HBM3 от SK Hynix. В результате память получила подтверждение возможности работы с системами NVIDIA, которые должны поступить в продажу в III квартале. Наиболее ожидаемым и большим ускорителем расчётов станет NVIDIA H100, и именно для него SK Hynix начнёт производство памяти с пропускной способностью 819 ГБ/с.
Южнокорейская компания обновила спецификации разрабатываемой памяти HBM3 уже в третий раз.
В октябре SK Hynix сообщила, что увеличит скорость новой 12-Hi (слоёв) памяти HBM3 DRAM до скорости 820 ГБ/с. Теперь же компания уверяет, что скорость будет составлять 896 ГБ/с, о чём она объявила на форуме ISSCC 2022 (IEEE International Solid-State Circuits Conference).
Детали пока не оговариваются, однако в заголовке сессии на конференции указана её скорость. Новые микросхемы также будут состоять из 12 слоёв ёмкостью по 196 Гб (24 ГБ). Высокая скорость будет достигаться за счёт автокалибровки и оптимизации на основе машинного обучения сквозных связей TSV. Также пока не ясно, идёт ли речь о первых прототипах, или же компания всерьёз задумывается о выпуске этих микросхем в продажу.
Первые спецификации HBM3 от SK Hynix должны были обеспечивать скорость в 5,5 Гб/с на контакт (665 ГБ/с суммарно). И уже через несколько месяцев была заявлена скорость в 819 ГБ/с. Теперь же скорость увеличена ещё на 10%, до 7 Гб/с на контакт.
Кроме этого компания также планирует обсудить 27 Гб/с память GDDR6 с технологией Merged-MUX TX, оптимизированной работой WCK и альтернативной шиной данных. Подобная память станет самой быстрой в мире и позволит обойти выпускаемые в настоящее время модули Samsung, имеющих скорость в 24 Гб/с. Память SK Hynix также будет выпускаться в микросхемах объёмом 16 Гб, как и решения GDDR6 от Samsung и GDDR6X от Micron.
Ассоциация JEDEC анонсировала стандарт памяти HBM3. Как и другие ревизии других типов памяти, этот стандарт обещает удвоение всех характеристики: пропускной способности, объёма и числа слоёв.
Память типа HBM3 сможет обеспечить скорость в 819 ГБ/с и объём 64 ГБ. Для сравнения, память HBM2e, используемая в AMD MI250 обеспечивает вдвое меньшую скорость, 410 ГБ/с, и вчетверо меньший объём, 16 ГБ.
Из восьми стеков MI250 можно собрать модуль на 128 ГБ и 3277 ГБ/с. В то же время 8 стеков HBM3 дадут 512 ГБ и 6552 ГБ/с. При этом пока в мире не существует модулей HBM2e, которые бы отвечали максимальной спецификации.
Кроме этого HBM3 получит удвоение независимых каналов, с 8 до 16, а также получит «псевдоканалы», которые могут создавать до 32 виртуальных каналов.
JEDEC ожидает, что первое поколение продуктов HBM3 появится на рынке в ближайшее время, однако они не будут отвечать максимальным спецификациям. Скорее всего, стоит ждать появления 12-слойных стеков объёмом 2 ГБ.
В ходе конференции Samsung Tech Day 2021 технологический гигант рассказал о разработке оперативной памяти будущего, такой как DDR6, LPDDR6 и GDDR7.
Эпоха DDR5 только-только началась, а технологические гиганты уже смотрят в будущее. Спецификация памяти DDR6 ещё не разработана JEDEC, однако корейские гигант уже занят её проектированием. Ожидается, что эта память будет работать с пропускной способностью в 12800 Мб/с, а разогнанные модели смогут выдавать до 17000 Мб/с. Кроме того, в DDR6 количество банков памяти будет увеличено в 4 раза, по сравнению с DDR4, до 64. Первые модули типа DDR6 должны появиться в 2024 году.
В ходе мероприятия компания Samsung также рассказала о 1z нм процессе для производства GDDR6, которую она назвала GDDR6+. Этот новый вариант графической памяти сможет развить скорость от 18000 Мб/с до 24000 Мб/с, что на 33% больше, чем у предшественника. На смену GDDR6+ придёт GDDR7, которая получит защиту от ошибок в реальном времени и максимальную скорость передачи данных до 32000 Мб/с.
Говоря о LPDDR6, компания Samsung особое внимания уделила вопросу энергоэффективности, хотя и скорость также должна возрасти. Компания ожидает повысить эффективность примерно на 20%, а скорость передачи данных возрастёт до 17000 Мб/с.
Наконец, компания рассказала о своих планах по производству памяти HBM3 со скоростью 800 ГБ/с и HBM2E с пропускной способностью 450 ГБ/с. Первые модули типа HBM3 южнокорейский гигант должен выпустить во II квартале 2022 года.
Один из мировых лидеров в производстве оперативной памяти, компания SK Hynix, разрабатывая пакеты HBM3 рассчитывала, что скорость её работы составит 665 ГБ/с, однако в реальности этот показатель оказался намного выше.
Компания SK Hynix официально заявила, что её память HBM3 обеспечивает максимальную скорость передачи данных в 819 ГБ/с.
Таким образом SK Hynix стала первой в мире фирмой, представившей рыночный образец памяти HBM3. Разработчики уверяют, что это самая быстрая память в мире, и скорость её работы на 78% выше, чем у предшественницы HBM2E. Для понимания, 819 ГБ/с — это передача 163 фильмов в FullHD за одну секунду.
Модули новой памяти предлагаются в объёмах 24 ГБ или 16 ГБ. Все они имеют коррекцию ошибок данных благодаря встроенной системе ECC. Модули объёмом 24 ГБ имеют толщину 30 мкм, что в три раза тоньше листа бумаги. Память HBM3 предназначена для высокопроизводительных центров обработки данных и платформ машинного обучения, обеспечивает высокую скорость в задачах искусственного интеллекта и суперкомпьютерах.
Производитель памяти SK Hynix обновил страницу с информацией о памяти HBM2E, случайно выложив в Сеть первичные спецификации HBM3, памяти следующего поколения.
По сути, HBM3 является четвёртым поколением этой высокоскоростной памяти. По данным SK Hynix новый стандарт обеспечит производительность в 665 ГБ/с и скорость ввода-вывода на уровне 5,2 Гб/с.
Это значит, что будущая память будет почти на 50% быстрее, чем нынешнее поколение. При этом нам по-прежнему неизвестно, какой высоты будут стеки, также неизвестна плотность ядер и техпроцесс, по которому их будут производить. Не имея этих данных невозможно определить и максимальный объём памяти каждого из этих стеков.
Что касается выпуска HBM3, то, по всей видимости, ждать эту память пока не стоит. Память HBM2E полностью выполняет свои задачи, а значит, современным GPU обновления не нужны.
Новый слайд от Rambus пролил немного света на цели в развитии памяти, показав будущее широкополосной памяти HBM3 и DDR5.
Дизайнер решений в области памяти отметил, что микросхемы обоих типов при готовности выйти на рынок будут произведены по 7 нм технологии. Таким образом, эти решения в области памяти не появятся раньше 2019 года. При этом конечные спецификации пока не утверждены и в будущем ещё могут измениться.
У Rambus уже есть работающий прототип DDR5. В фирме ожидают, что официальный стандарт будет нацелен на частоту от 4800 МГц до 6400 МГц, что вдвое больше, чем у DDR4.
Слайд также сообщает, что HBM3 вдвое увеличит пропускную способность по сравнению с HBM2, но при этом будет иметь более сложную конструкцию архитектуры.