سامسونگ اولین بار است که HBM3E 12 پشته ای را در میان تقاضای زیاد هوش مصنوعی معرفی می کند

سامسونگ اولین بار است که HBM3E 12 پشته ای را در میان تقاضای زیاد هوش مصنوعی معرفی می کند

hbm3e-12h.png

سامسونگ روز سه‌شنبه اعلام کرد که اولین DRAM 12 پشته‌ای صنعت HBM3E را توسعه داده است و آن را به حافظه‌ای با پهنای باند بالا با بالاترین ظرفیت تا به امروز تبدیل کرده است.

غول فناوری کره جنوبی گفت که HBM3E 12H DRAM حداکثر پهنای باند 1280 گیگابایت بر ثانیه و ظرفیت 36 گیگابایت را ارائه می دهد. سامسونگ گفت که پهنای باند و ظرفیت همگی 50 درصد در مقایسه با HBM3 8 پشته افزایش یافته است.

HBM ها از چندین ماژول DRAM تشکیل شده اند که به صورت عمودی روی هم چیده شده اند که هر کدام یک پشته یا یک لایه نامیده می شوند. در مورد جدیدترین مدل سامسونگ، هر ماژول DRAM دارای ظرفیت 24 گیگابیت (گیگابیت) معادل 3 گیگابایت (گیگابایت) است که دوازده عدد از آنها وجود دارد.

سازندگان حافظه سامسونگ، SK Hynix و Micron در حال رقابت برای قرار دادن بیشتر و محدود کردن ارتفاع پشته ها برای نازک ترین تراشه با ظرفیت بیشتر هستند.

هر سه در حال برنامه ریزی برای افزایش خروجی تولید HBM در سال جاری، با به نظر می رسد که چرخه نزولی بازار تراشه های حافظه به پایان رسیده است، و برای پاسخگویی به تقاضای بالای محبوبیت هوش مصنوعی، که باعث افزایش تقاضا برای پردازنده های گرافیکی __ به ویژه آنهایی که توسط انویدیا __ ساخته شده اند، افزایش دهند. که با این HBM ها جفت شده اند.

به گفته سامسونگ، از فیلم غیر رسانا فشرده‌سازی حرارتی پیشرفته (TC NCF) استفاده کرده تا HBM3E 12 پشته‌ای دارای ارتفاعی برابر با 8 پشته باشد تا نیازهای بسته را برآورده کند. این فیلم نازک‌تر از نمونه‌هایی بود که قبلاً استفاده می‌شد و فضای خالی بین پشته‌ها را از بین می‌برد و فاصله بین آنها به هفت میکرومتر کاهش می‌یابد، به گفته این شرکت، این فیلم به HBM3E 12 پشته‌ای اجازه می‌دهد تا بیش از 20 درصد در مقایسه با HBM3 8 پشته به صورت عمودی متراکم شود. .

سامسونگ گفت TC NCF همچنین استفاده از برآمدگی‌های کوچک و بزرگ را مجاز می‌داند، جایی که در هنگام اتصال تراشه، برآمدگی‌های کوچک در مناطقی برای سیگنال‌دهی و برجستگی‌های بزرگ در مکان‌هایی که نیاز به اتلاف گرما دارند استفاده می‌شوند.

این غول فناوری گفت که عملکرد و ظرفیت بالاتر HBM3E 12H به مشتریان این امکان را می دهد که هزینه کل مالکیت مراکز داده را کاهش دهند. طبق ادعای سامسونگ، برای کاربردهای هوش مصنوعی، میانگین سرعت آموزش هوش مصنوعی را می توان تا 34 درصد افزایش داد و تعداد کاربران همزمان خدمات استنتاج را می توان 11.5 برابر در مقایسه با HBM3 8H افزایش داد.

این شرکت قبلاً نمونه هایی از HBM3E 12H را در اختیار مشتریان قرار داده است و در نظر دارد تولید انبوه را در نیمه اول سال جاری آغاز کند.



منبع: https://www.zdnet.com/article/samsung-becomes-first-to-introduce-12-stack-hbm3e-amid-high-demand-from-ai/#ftag=RSSbaffb68