Samsung упустила самую дорогую AI-карту от Nvidia, но опережает Micron с памятью HBM3E объемом 36 ГБ — сможет ли эта новая технология стать основой B100, преемника H200?

Samsung заявляет, что разработала первую в отрасли 12-стековую DRAM-память HBM3E 12H, опередив Micron Technology и потенциально заложив основу для следующего поколения карт искусственного интеллекта Nvidia.

HBM3E 12H южнокорейского технологического гиганта обеспечивает пропускную способность до 1280 ГБ/с и лучшую в отрасли емкость 36 ГБ, что представляет собой улучшение более чем на 50 % по сравнению с 8-стековым HBM3 8H.