Bu gelişme, veri merkezleri ve yapay zeka algoritmalarının performansını artırırken, daha karmaşık hesaplamaların daha kısa sürede yapılabilmesine olanak tanıyor.
Samsung’un HBM3E 12H DRAM’ı ile yüksek bant genişliği belleği (HBM) alanında yeni bir dönem başlıyor. HBM, yüksek bant genişliğine ihtiyaç duyan uygulamalar için tasarlanmış bir bellek türüdür ve Samsung bu alanda önemli bir yenilik yapıyor. Ekim ayında, üçüncü nesil HBM’nin geliştirilmiş bir versiyonu olan HBM3E Shinebolt’u tanıtan Samsung, bu teknolojiyle pin başına 9.8Gbps hıza ve tüm paket için 1.2 terabyte saniyelik bir bant genişliğine ulaştı.
12H, her modülde dikey olarak üst üste konulan çip sayısını ifade ediyor. Bu durumda 12 çip bir araya getirilmiş. Bu yöntem, bir modülde daha fazla bellek sığdırmanın bir yolunu sunuyor ve Samsung 12H tasarımıyla 36GB kapasiteye, yani 8H tasarımına göre %50 daha fazla belleğe ulaşıyor. Bant genişliği ise 1.2 terabyte saniyede sabit kalıyor.
TC NCF ise Isıl Sıkıştırma İletken Olmayan Film anlamına geliyor ve çipler arasına yerleştirilen malzemeyi ifade ediyor. Samsung, bu malzemeyi daha ince bir hale getirerek, şimdi 7µm kalınlığında bir yapıya indirdi. Böylece 12H yığınağı, 8H yığını ile aynı yükseklikte olabiliyor ve aynı HBM ambalajının kullanılmasına olanak tanıyor. TC NCF’nin bir başka avantajı ise, ısı özelliklerini iyileştirerek soğutmayı da geliştirmesi. Dahası, bu yeni HBM3E 12H DRAM’da kullanılan yöntem, aynı zamanda verimliliği de artırıyor.
Samsung’un yapay zeka hamlesi HBM3E bellek sunuyor
Peki, bu gelişmiş bellek teknolojisi nerede kullanılacak? Cevap vermeye gerek yok; yapay zeka günümüzün en popüler konularından biri. Gerçekten de, yapay zeka gibi uygulamalar, yüksek miktarda RAM gerektiriyor. Geçen yıl Nvidia, yüksek bant genişliği belleği tedarikçileri listesine Samsung’u ekledi ve şirket, tüketiciye yönelik grafik kartlarından çok daha yüksek performans sunan bazı inanılmaz tasarımlar geliştiriyor.
Örneğin, Nvidia’nın H200 Tensor Core GPU’su, toplamda 4.8 terabyte saniyelik bir hıza sahip 141GB HBM3E belleğe sahip. Bu, GDDR ile çalışan tüketiciye yönelik bir grafik kartından çok daha yüksektir. Örneğin, RTX 4090, sadece 1 terabyte saniyelik bir hızla 24GB GDDR6’ya sahip.
Raporlara göre, H200, toplamda 144GB olan ancak kullanılabilir haliyle 141GB olan altı adet 24GB HBM3E 8H modülü kullanıyor. Aynı kapasite, sadece dört 12H modülü ile sağlanabilirken; alternatif olarak, altı 12H modülü ile 216GB kapasiteye ulaşılabilir.
Samsung’un tahminlerine göre, yeni 12H tasarımının ek kapasitesi, yapay zeka eğitimini %34 hızlandıracak ve çıkarım hizmetlerinin “11,5 kat daha fazla” kullanıcıyı idare etmesine olanak tanıyacak.
Yapay zeka patlaması, H200 gibi hızlandırıcıları yüksek talepte tutacak, böylece bellek tedarikçisi olmak kârlı bir iş haline geliyor. Bu nedenle Micron, Samsung ve SK Hynix gibi şirketlerin bu pastadan bir pay almak istemeleri şaşırtıcı değil.
GÜNDEM
16 Ekim 2024SPOR
16 Ekim 2024GÜNDEM
16 Ekim 2024SPOR
16 Ekim 2024SPOR
16 Ekim 2024GÜNDEM
16 Ekim 2024GÜNDEM
16 Ekim 2024