Bunu yeterince sık söylemek mümkün değil: Yapay zeka modelleri pazarı hızla gelişiyor. Bu nedenle yapay zeka eğitimi ve çıkarımına yönelik mevcut hızlandırıcılarda yeni gelişmeler veya güncellemeler her yerde bulunabilir.
Duyuru
AMD bu mantıksal adımı veri merkezi yapay zeka hızlandırıcısı Instinct MI325X ile atıyor. Altı ay önce Aralık 2023'te tanıtılan MI300 nesli, HBM3e tipi daha modern bir bellek yığınına geçiş sayesinde artık çok daha fazla depolama kapasitesine ve biraz daha yüksek bellek aktarım hızına sahip. AMD patronu Dr. Lisa Su'nun Computex'teki açılış konuşmasında trilyon parametreli bir yapay zeka modelinin sekiz kişilik bir ağda çalışabilmesi gerektiğine dair söz vermesi gibi, MI325X selefiyle aynı anakartlara ve raf yuvalarına sığıyor.
AMD'nin şu anda sıcak kek gibi sattığı MI300X ile karşılaştırıldığında MI325X %50 daha fazla bellek kapasitesine sahip ve maksimum 288 GB'a sahip. Aktarım hızları söz konusu olduğunda, zaten çok yüksek olan saniyede 5,3'ten 6 TByte'a geçiş önemli ölçüde daha küçüktür. Bilgi işlem gücü, 2,1 GHz'lik en yüksek saat hızıyla değişmeden kalır.
Şu anda piyasada hakim olan ancak biraz daha eski olan Nvidia Hopper çipleriyle karşılaştırıldığında, avantaj çok daha büyük. Şu ana kadar yalnızca 141 GB HBM3e bellek ve H200 gibi saniyede 4,8 TB aktarım hızıyla sunuluyor. Orijinal H100 sürümü daha da yavaş ve daha az HBM3 kullanıyordu. MI325X'in satın alabiliyorsanız yaklaşık 2 veya yaklaşık %25'lik bir avantajı vardır.
MI325X'in, MI300X'in resmi lansmanından neredeyse bir yıl sonra, 2024'ün dördüncü çeyreğinden itibaren ve Nvidia'nın Blackwell nesliyle benzer bir zaman diliminde piyasaya sürülmesi bekleniyor; bu da Hopper'a göre önemli bir gelişmeyi temsil ediyor: 192 GB HBM3e Dakikada 8TB ile. ikincisi şu ana kadar açıklandı.
Yapay zekanın yıllık temposu
AMD, yapay zeka modellerinin hızlı gelişimini dikkate alarak bundan sonra her yıl yeni Instinct serisi ürünlerini piyasaya sürmeyi planlıyor. MI350, yeni CDNA4 mimarisine dayalı olarak 2025 yılında piyasaya sürülecek. Nvidia'nın Blackwell nesli gibi bu da AI FP4 ve FP6 veri türlerini destekleyecek. Bunlar düşük hassasiyetli ve sınırlı değer aralığına sahip kayan nokta formatlarıdır ancak bunlara uyarlanmış yapay zeka modelleriyle bazı görevler için yeterlidir. Öte yandan, en azından FP4 durumunda, önceki 8 bitlik veri türlerine göre iki kat daha hızlıdırlar; 6PQ en azından önbelleklerde ve kayıtlarda depolama alanından ve aktarım hızından tasarruf etmenize yardımcı olabilir.
Instinct MI400 hızlandırıcının, kısmen devasa HBM3e bellek ve daha kısıtlı FP4 ve FP6 veri formatlarına yönelik destek sayesinde 2026'da mevcut MI300X'ten 35 kat daha hızlı olması bekleniyor.
(Resim: AMD)
AMD, bu bilgisayar sanatçılarıyla özel yapay zeka uygulamalarında önceki nesil MI300X'ten 35 kat (aynen böyle!) daha hızlı olmak istiyor. Nvidia, Uzmanların Karışımı'nı (yani bireysel model adımlarında farklı doğrulukları) kullanarak 1,8 trilyon parametreli bir model için 30 faktörlü Blackwell serisini piyasaya sürdüğünde benzer matematiksel hileleri duyurdu.
MI350, 3 nanometre teknolojisini kullanacak AMD, hangi üreticinin olduğunu doğrudan söylemedi ancak sonraki Soru-Cevap oturumunda Tayvanlı çip üreticisi TSMC ile olan işbirliğinden ne kadar memnun olduğunu vurguladı. Ayrıca yerleşik: MI325X'te olduğu gibi maksimum 288 GB HBM3e yığın belleği.
MI400 serisinin 2026'da çıkması bekleniyor ve uğursuz bir şekilde adlandırılan “CDNA next” mimarisini kullanıyor. Bu da spekülasyonları yeni bir boyuta taşıyor: CDNA4'ten sonra ne gelecek?
(csp)
Haberin Sonu
Duyuru
AMD bu mantıksal adımı veri merkezi yapay zeka hızlandırıcısı Instinct MI325X ile atıyor. Altı ay önce Aralık 2023'te tanıtılan MI300 nesli, HBM3e tipi daha modern bir bellek yığınına geçiş sayesinde artık çok daha fazla depolama kapasitesine ve biraz daha yüksek bellek aktarım hızına sahip. AMD patronu Dr. Lisa Su'nun Computex'teki açılış konuşmasında trilyon parametreli bir yapay zeka modelinin sekiz kişilik bir ağda çalışabilmesi gerektiğine dair söz vermesi gibi, MI325X selefiyle aynı anakartlara ve raf yuvalarına sığıyor.
AMD'nin şu anda sıcak kek gibi sattığı MI300X ile karşılaştırıldığında MI325X %50 daha fazla bellek kapasitesine sahip ve maksimum 288 GB'a sahip. Aktarım hızları söz konusu olduğunda, zaten çok yüksek olan saniyede 5,3'ten 6 TByte'a geçiş önemli ölçüde daha küçüktür. Bilgi işlem gücü, 2,1 GHz'lik en yüksek saat hızıyla değişmeden kalır.
Şu anda piyasada hakim olan ancak biraz daha eski olan Nvidia Hopper çipleriyle karşılaştırıldığında, avantaj çok daha büyük. Şu ana kadar yalnızca 141 GB HBM3e bellek ve H200 gibi saniyede 4,8 TB aktarım hızıyla sunuluyor. Orijinal H100 sürümü daha da yavaş ve daha az HBM3 kullanıyordu. MI325X'in satın alabiliyorsanız yaklaşık 2 veya yaklaşık %25'lik bir avantajı vardır.
MI325X'in, MI300X'in resmi lansmanından neredeyse bir yıl sonra, 2024'ün dördüncü çeyreğinden itibaren ve Nvidia'nın Blackwell nesliyle benzer bir zaman diliminde piyasaya sürülmesi bekleniyor; bu da Hopper'a göre önemli bir gelişmeyi temsil ediyor: 192 GB HBM3e Dakikada 8TB ile. ikincisi şu ana kadar açıklandı.
Yapay zekanın yıllık temposu
AMD, yapay zeka modellerinin hızlı gelişimini dikkate alarak bundan sonra her yıl yeni Instinct serisi ürünlerini piyasaya sürmeyi planlıyor. MI350, yeni CDNA4 mimarisine dayalı olarak 2025 yılında piyasaya sürülecek. Nvidia'nın Blackwell nesli gibi bu da AI FP4 ve FP6 veri türlerini destekleyecek. Bunlar düşük hassasiyetli ve sınırlı değer aralığına sahip kayan nokta formatlarıdır ancak bunlara uyarlanmış yapay zeka modelleriyle bazı görevler için yeterlidir. Öte yandan, en azından FP4 durumunda, önceki 8 bitlik veri türlerine göre iki kat daha hızlıdırlar; 6PQ en azından önbelleklerde ve kayıtlarda depolama alanından ve aktarım hızından tasarruf etmenize yardımcı olabilir.

Instinct MI400 hızlandırıcının, kısmen devasa HBM3e bellek ve daha kısıtlı FP4 ve FP6 veri formatlarına yönelik destek sayesinde 2026'da mevcut MI300X'ten 35 kat daha hızlı olması bekleniyor.
(Resim: AMD)
AMD, bu bilgisayar sanatçılarıyla özel yapay zeka uygulamalarında önceki nesil MI300X'ten 35 kat (aynen böyle!) daha hızlı olmak istiyor. Nvidia, Uzmanların Karışımı'nı (yani bireysel model adımlarında farklı doğrulukları) kullanarak 1,8 trilyon parametreli bir model için 30 faktörlü Blackwell serisini piyasaya sürdüğünde benzer matematiksel hileleri duyurdu.
MI350, 3 nanometre teknolojisini kullanacak AMD, hangi üreticinin olduğunu doğrudan söylemedi ancak sonraki Soru-Cevap oturumunda Tayvanlı çip üreticisi TSMC ile olan işbirliğinden ne kadar memnun olduğunu vurguladı. Ayrıca yerleşik: MI325X'te olduğu gibi maksimum 288 GB HBM3e yığın belleği.
MI400 serisinin 2026'da çıkması bekleniyor ve uğursuz bir şekilde adlandırılan “CDNA next” mimarisini kullanıyor. Bu da spekülasyonları yeni bir boyuta taşıyor: CDNA4'ten sonra ne gelecek?
(csp)
Haberin Sonu