Duyuru
Nvidia'nın San José, California'daki şirket içi GTC 2024 ticari fuarı yıllardır ilk kez şahsen gerçekleştirildi ve şaşırtıcı olmayan bir şekilde, tamamen yapay zeka ile ilgiliydi. Nvidia, hızlandırıcı çipleriyle şu anda veri merkezi pazarına hakim durumda ve yapay zeka patlamasının ardından birbiri ardına rekor mali sonuçlar elde ediyor.
Nvidia patronu Huang işlerin bu şekilde kalmasını istiyor. Yeni Blackwell hızlandırıcı mimarisi, yıl boyunca B100'den DGX GB200 SuperPOD'a kadar birçok ürünün pazara sunulmasında merkezi bir rol oynuyor. Kağıt üzerinde Blackwell GPU'lar, AMD'nin en yeni MI300 hızlandırıcılarıyla karşılaştırıldığında bazı veri formatlarında iki kat verim elde ediyor.
Yeni Blackwell mimarisi ve 4 bitlik kayan nokta gibi daha da azaltılmış veri formatlarının yanı sıra yeni işlevlerle odak noktası öncelikle enerji verimliliği ve bireysel yongalar arasındaki veri alışverişidir. Bu nedenle NVLink anahtarı ve ağ teknolojisi de güncellendi.
Nvidia geleneksel olarak fiyatları isimlendirmez ve ortaklarına atıfta bulunur, ancak AI heyecanı azalmadan devam ettiği sürece çiplerin neredeyse fiyatı ne olursa olsun satılması muhtemeldir. Her durumda, Nvidia zaten müşteri olarak Amazon Web Services, Google Cloud ve Oracle Cloud'u kazandı, ancak bulut sunucularını rezerve etmenin tam olarak ne zaman mümkün olacağını belirtmiyor. Bu arada eski H100 ürünleri de üretim hattından çıkmaya devam ediyor.
Çift Blackwell çipi
Nvidia, Blackwell ile yeni bir çığır açıyor ancak bazı açılardan kendine sadık kalıyor. Blackwell “GPU” iki ayrı çipten oluşur. Nvidia, ikisinin işlevsel olarak aynı olup olmadığı sorumuzu yanıtlamadı ancak her ikisinin de ekran seçeneklerinin sınırına ulaştığını söyledi. Bu, her birinin yaklaşık 800 mm²'lik bir boyuta sahip olması gerektiği ve dolayısıyla önceki H100 (814 mm²) ve A100 (826 mm²) ile ayrı ayrı yaklaşık olarak aynı alanı kaplaması gerektiği anlamına gelir. Genellikle birkaç çipin birleştirilmesi olarak anlaşıldığından chiplet kelimesinden bahsedilmedi.
Nvidia, Blackwell çiplerini TSMC tarafından “4NP” adı verilen bir süreçte üretiyor ve bu da üreticinin genel terminolojisine uymuyor. Nvidia, bunun N4P'nin bir türevi olup olmadığı veya sürecin hangi özelliklere sahip olduğu konusunda yanıt vermedi, ancak bunun, her zamanki gibi bazı parametrelerin müşteri ihtiyaçlarına göre uyarlandığı N4P olduğunu varsayıyoruz.
Nvidia'nın Blackwell GPU'ları olarak adlandırdığı her iki çip de birbirine saniyede 10 TByte hızlı bir arayüz (her yönde 5 TBytes/s) aracılığıyla bağlanıyor. Nvidia'ya göre bu, performans açısından tek bir GPU gibi davranmaları için yeterli. Karşılaştırma için: Nvidia'nın üst düzey GeForce RTX 4090 grafik kartlarında veri bağlantısı örneği olarak seviye 2 önbellekle, saniyede yaklaşık 5 TByte ölçtük, AMD'nin MI300 hızlandırıcı yongaları birbirine 1,5 TByte'a kadar bağlı S.
192 GB HBM3e bellek
Bellek söz konusu olduğunda Nvidia, sekiz adet 24 GB'lık hızlı HBM3e bellek yığınıyla başlıyor. Bu da toplamda 192 GB ve 8 TB/s aktarım hızına denk geliyor. Bellek boyutu açısından şirket, AMD'nin MI300X'iyle aynı seviyede, ancak B100 yaklaşık %50 daha yüksek aktarım hızına sahip – özellikle bellek boyutu söz konusu olduğunda Nvidia'nın H100 nesli geç kaldığı için yükseltme de gerekliydi. Sekiz yığınla teorik olarak daha sonra 36 GB'lık yığına geçme ve kapasiteyi 288 GB'a çıkarma seçeneğiniz de vardır.
Sunumda iç yapıya dair sadece birkaç detay vardı. Nvidia yalnızca Tensor çekirdekleri için performans verileri sağladı ancak geleneksel gölgelendirici hesap makineleri ve diğer birimler konusunda sessiz kaldı.
Tablo sunumu için verim değerlerini seyrek olarak kullandık; yoğun nüfuslu matrislerde teraflop rakamları yarıya iner.
Nvidia'nın San José, California'daki şirket içi GTC 2024 ticari fuarı yıllardır ilk kez şahsen gerçekleştirildi ve şaşırtıcı olmayan bir şekilde, tamamen yapay zeka ile ilgiliydi. Nvidia, hızlandırıcı çipleriyle şu anda veri merkezi pazarına hakim durumda ve yapay zeka patlamasının ardından birbiri ardına rekor mali sonuçlar elde ediyor.
Nvidia patronu Huang işlerin bu şekilde kalmasını istiyor. Yeni Blackwell hızlandırıcı mimarisi, yıl boyunca B100'den DGX GB200 SuperPOD'a kadar birçok ürünün pazara sunulmasında merkezi bir rol oynuyor. Kağıt üzerinde Blackwell GPU'lar, AMD'nin en yeni MI300 hızlandırıcılarıyla karşılaştırıldığında bazı veri formatlarında iki kat verim elde ediyor.
Yeni Blackwell mimarisi ve 4 bitlik kayan nokta gibi daha da azaltılmış veri formatlarının yanı sıra yeni işlevlerle odak noktası öncelikle enerji verimliliği ve bireysel yongalar arasındaki veri alışverişidir. Bu nedenle NVLink anahtarı ve ağ teknolojisi de güncellendi.
Nvidia geleneksel olarak fiyatları isimlendirmez ve ortaklarına atıfta bulunur, ancak AI heyecanı azalmadan devam ettiği sürece çiplerin neredeyse fiyatı ne olursa olsun satılması muhtemeldir. Her durumda, Nvidia zaten müşteri olarak Amazon Web Services, Google Cloud ve Oracle Cloud'u kazandı, ancak bulut sunucularını rezerve etmenin tam olarak ne zaman mümkün olacağını belirtmiyor. Bu arada eski H100 ürünleri de üretim hattından çıkmaya devam ediyor.
Çift Blackwell çipi
Nvidia, Blackwell ile yeni bir çığır açıyor ancak bazı açılardan kendine sadık kalıyor. Blackwell “GPU” iki ayrı çipten oluşur. Nvidia, ikisinin işlevsel olarak aynı olup olmadığı sorumuzu yanıtlamadı ancak her ikisinin de ekran seçeneklerinin sınırına ulaştığını söyledi. Bu, her birinin yaklaşık 800 mm²'lik bir boyuta sahip olması gerektiği ve dolayısıyla önceki H100 (814 mm²) ve A100 (826 mm²) ile ayrı ayrı yaklaşık olarak aynı alanı kaplaması gerektiği anlamına gelir. Genellikle birkaç çipin birleştirilmesi olarak anlaşıldığından chiplet kelimesinden bahsedilmedi.
Nvidia, Blackwell çiplerini TSMC tarafından “4NP” adı verilen bir süreçte üretiyor ve bu da üreticinin genel terminolojisine uymuyor. Nvidia, bunun N4P'nin bir türevi olup olmadığı veya sürecin hangi özelliklere sahip olduğu konusunda yanıt vermedi, ancak bunun, her zamanki gibi bazı parametrelerin müşteri ihtiyaçlarına göre uyarlandığı N4P olduğunu varsayıyoruz.
Nvidia'nın Blackwell GPU'ları olarak adlandırdığı her iki çip de birbirine saniyede 10 TByte hızlı bir arayüz (her yönde 5 TBytes/s) aracılığıyla bağlanıyor. Nvidia'ya göre bu, performans açısından tek bir GPU gibi davranmaları için yeterli. Karşılaştırma için: Nvidia'nın üst düzey GeForce RTX 4090 grafik kartlarında veri bağlantısı örneği olarak seviye 2 önbellekle, saniyede yaklaşık 5 TByte ölçtük, AMD'nin MI300 hızlandırıcı yongaları birbirine 1,5 TByte'a kadar bağlı S.
192 GB HBM3e bellek
Bellek söz konusu olduğunda Nvidia, sekiz adet 24 GB'lık hızlı HBM3e bellek yığınıyla başlıyor. Bu da toplamda 192 GB ve 8 TB/s aktarım hızına denk geliyor. Bellek boyutu açısından şirket, AMD'nin MI300X'iyle aynı seviyede, ancak B100 yaklaşık %50 daha yüksek aktarım hızına sahip – özellikle bellek boyutu söz konusu olduğunda Nvidia'nın H100 nesli geç kaldığı için yükseltme de gerekliydi. Sekiz yığınla teorik olarak daha sonra 36 GB'lık yığına geçme ve kapasiteyi 288 GB'a çıkarma seçeneğiniz de vardır.
Sunumda iç yapıya dair sadece birkaç detay vardı. Nvidia yalnızca Tensor çekirdekleri için performans verileri sağladı ancak geleneksel gölgelendirici hesap makineleri ve diğer birimler konusunda sessiz kaldı.
Tablo sunumu için verim değerlerini seyrek olarak kullandık; yoğun nüfuslu matrislerde teraflop rakamları yarıya iner.
Veri merkezi ve yapay zeka hızlandırıcıları |