NVIDIA duyuruyor Microsoft Azure en yeni Hopper örneklerini sunarken, yapay zekayı daha da hızlandırmak için yepyeni AI Foundry Services girişimini gerçekleştirdi.
NVIDIA AI Foundry Hizmetleri ve Microsoft Azure’un Hopper H100/H200 Örnekleri Yapay Zekayı Yeni Zirvelere Taşıyor
NVIDIA, kuruluşlara özel tasarımlar oluşturmak ve optimize etmek için uçtan uca bir çözüm sunan bir NVIDIA AI Temel Modelleri, NVIDIA NeMo çerçevesi ve araçları ile DGX Cloud AI süper bilgi işlem ve hizmetlerinden oluşan bir AI dökümhane hizmetini duyurdu.
İletişim ve medya sağlayıcılarına yönelik önde gelen yazılım ve hizmet sağlayıcısı Amdocs, yapay zeka dökümhane hizmetini kullanarak, müşteri deneyimlerinden müşteri deneyimlerine kadar üretken yapay zeka kullanım örneklerini işletmeleri genelinde verimli bir şekilde dağıtmak için telekomünikasyon ve medya endüstrileri için kurumsal düzeyde büyük dil modellerini optimize edecek. ağ operasyonları ve provizyon. LLM’ler, Amdocs amAIz çerçevesinin bir parçası olarak NVIDIA hızlandırılmış bilgi işlem üzerinde çalışacak.
İşbirliği, daha önce duyurulan Amdocs-Microsoft ortaklığına dayanıyor ve hizmet sağlayıcıların bu uygulamaları şirket içi ve bulut dahil olmak üzere güvenli, güvenilir ortamlarda benimsemesine olanak tanıyor.
Yapay Zeka İş Yüklerini Hızlandırmak İçin Yeni NVIDIA H100 ve H200 Tensor Core GPU Örnekleri Microsoft Azure’a Geliyor
NVIDIA, son teknolojiye sahip yapay zeka altyapısı oluşturmak için Microsoft ile işbirliği yapmaya devam ederken Microsoft, (orta düzey) yapay zeka iş yüklerini hızlandırmak için Microsoft Azure’a ek H100 tabanlı sanal makineler sunuyor.
Bugün Seattle’da düzenlenen Ignite konferansında Microsoft, NVIDIA H100 NVL GPU’lara sahip sektörün ilk bulut bulut sunucuları olan Azure için yeni NC H100 v5 VM serisini duyurdu. Bu teklif bir çifti bir araya getiriyor. PCIe tabanlı H100 GPU’lar. Yaklaşık 4 petaflop AI bilgi işlem ve 188 GB daha hızlı HBM3 belleğe sahip, NVIDIA NVLink aracılığıyla bağlanıyor. NVIDIA H100 NVL GPU, GPT-3 175B’de önceki nesle göre 12 kata kadar daha yüksek performans sunabilir ve çıkarım ve genel eğitim iş yükleri için idealdir.
Ayrıca Microsoft, şunları ekleme planlarını duyurdu: NVIDIA H200 Tensör Çekirdek GPU gecikmede azalma olmadan daha büyük model çıkarımını desteklemek için gelecek yıl Azure filosuna katılacak. Bu yeni teklif, yüksek lisans ve üretken yapay zeka modelleri de dahil olmak üzere en büyük yapay zeka iş yüklerini hızlandırmak için özel olarak tasarlandı. H200 GPU, en yeni nesil HBM3e belleği kullanarak hem bellek kapasitesinde hem de bant genişliğinde önemli artışlar sağlar.
Önceki modelle karşılaştırıldığında bu yeni GPU, 141 GB HBM3e bellek (1,8 kat daha fazla) ve 4,8 TB/sn maksimum bellek bant genişliği (1,4 kat artış) sunacak.
Bulut Bilişim Gizlileşiyor
Azure müşterileri için NVIDIA ile hızlandırılmış üretken yapay zeka bilişiminin kullanılabilirliğini daha da genişleten Microsoft, NVIDIA destekli başka bir örneği duyurdu: NCC H100 v5.
NVIDIA H100 Tensor Core GPU’lara sahip bu Azure gizli sanal makineleri (VM’ler), Azure müşterilerinin, H100 GPU’ların eşsiz hızlanmasına erişirken, bellekte kullanımdaki verilerinin ve uygulamalarının gizliliğini ve bütünlüğünü korumalarına olanak tanır. GPU ile geliştirilmiş bu gizli VM’ler yakında özel önizlemeye sunulacak.