Samsung упустила самую дорогую AI-карту от Nvidia, но опережает Micron с памятью HBM3E объемом 36 ГБ — сможет ли эта новая технология стать основой B100, преемника H200?

Samsung упустила самую дорогую AI-карту от Nvidia, но опережает Micron с памятью HBM3E объемом 36 ГБ — сможет ли эта новая технология стать основой B100, преемника H200?

заявляет, что разработала первую в отрасли 12-стековую DRAM- HBM3E 12H, опередив Micron Technology и потенциально заложив основу для следующего поколения карт искусственного интеллекта Nvidia.

HBM3E 12H южнокорейского ческого гиганта обеспечивает пропускную способность до 1280 ГБ/с и лучшую в отрасли емкость 36 ГБ, что представляет собой улучшение более чем на 50 % по сравнению с 8-стековым HBM3 8H.

В 12-слойной упаковке HBM3E 12H используется усовершенствованная термокомпрессионная непроводящая пленка (TC NCF), которая позволяет 12-слойным продуктам соответствовать текущим требованиям к упаковке HBM, сохраняя при этом ту же высоту, что и 8-слойные продукты. Эти достижения привели к увеличению вертикальной плотности на 20% по сравнению с продуктом Samsung HBM3 8H.

Битва накаляется

«Поставщикам услуг искусственного интеллекта в отрасли все чаще требуются HBM с большей емкостью, и наш новый продукт HBM3E 12H был разработан, чтобы удовлетворить эту потребность», — сказал Йонгчеол Бэ, исполнительный вице-президент по планированию продуктов памяти в Samsung Electronics. «Это новое решение в области памяти является частью нашего стремления к разработке основных технологий для высокопроизводительных HBM и обеспечению технологического лидерства на рынке высокопроизводительных HBM».

Тем временем Micron начала массовое производство своего 8H HBM3E объемом 24 ГБ, который будет использоваться в новейших графических процессорах Nvidia H200 Tensor Core. Micron утверждает, что его HBM3E потребляет на 30% меньше энергии, чем его конкуренты, что делает его идеальным для приложений генеративного искусственного интеллекта.



Несмотря на отсутствие самой дорогой AI-карты Nvidia, память Samsung HBM3E 12H объемом 36 ГБ превосходит Micron 24 ГБ 8H HBM3E с точки зрения емкости и пропускной способности. Поскольку приложения искусственного интеллекта продолжают расти, 12H HBM3E от Samsung станет очевидным выбором для будущих систем, требующих большего объема памяти, таких как мощный компьютер Nvidia B100 Blackwell AI, который, как ожидается, появится к концу этого года.

Samsung уже начала предлагать покупателям свой 36-гигабайтный HBM3E 12H, а массовое производство ожидается в первой половине этого года. Micron планирует начать поставки своего 24-гигабайтного 8H HBM3E во втором квартале 2024 года. Ожидается, что конкуренция между двумя технологическими гигантами на рынке HBM усилится, поскольку спрос на решения памяти высокой емкости продолжает расти в эпоху искусственного интеллекта.

Больше от TechRadar Pro