Nvidia, AI sistemlerini yönetmek için çipini geliştiriyor
Nvidia, AI sistemlerini yönetmek için çipini geliştiriyor
Nvidia’dan Pazartesi günü yapılan açıklamada, yapay zeka için şirketin en üst düzey çipine yeni özellikler eklendiği ve yeni çipin gelecek yıl piyasaya sürüleceği duyuruldu.
Haber Giriş Tarihi: 14.11.2023 16:11
Haber Güncellenme Tarihi: 14.11.2023 16:11
Kaynak: Haber Merkezi
https://www.dijitalhaber.com.tr
Nvidia’dan Pazartesi günü yapılan açıklamada, yapay zeka için şirketin en üst düzey çipine yeni özellikler eklendiği ve yeni çipin gelecek yıl piyasaya sürüleceği duyuruldu.
H200 olarak adlandırılan yeni çip, Nvidia’nın halihazırda en iyi çipi olan H100’ü geride bırakacak. Yapılan iyileştirmenin temel olarak, bir çipin en maliyetli parçalarından biri olan ve çipin daha çok veriyi daha kısa bir sürede işleyebilmesine olanak sağlayan bellek bant genişliğini yükseltmek üzerine olduğu belirtiliyor.
Nvidia mevcut durumda, yapay zekâ çipleri pazarında hâkim durumda ve sorgulara insan benzeri yanıtlar veren OpenAI’ın ChatGPT hizmeti ve buna benzer birçok üretken yapay zekâ hizmetini destekliyor. Yeni çipe daha yüksek bant genişliğine sahip belleğin eklenmesi ve çipin işleme elemanlarına daha hızlı bağlantı sağlanması, bu tür hizmetlerin yapılan sorgulara daha hızlı yanıt verebileceği anlamına geliyor.
H100, 80 gigabaytlık bellek bant genişliğine sahipken, H200’de bant genişliği 141 gigabayt. Nvidia, yeni çipteki bellek için tedarikçilerini açıklamadı ancak Micron Technology, Eylül ayında Nvidia tedarikçisi olmak için çalıştığını duyurmuştu. Nvidia Koreli SK Hynix’ten de bellek satın alıyor.
Nvidia’dan yapılan açıklamada, uzmanlaşmış AI bulut sağlayıcıları CoreWeave, Lambda ve Vultr’un yanı sıra Amazon Web Services, Google Cloud, Microsoft Azure ve Oracle Cloud Infrastructure’ın H200 çiplerine erişim sunan ilk bulut hizmet sağlayıcıları arasında olacağı belirtildi.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Nvidia, AI sistemlerini yönetmek için çipini geliştiriyor
Nvidia’dan Pazartesi günü yapılan açıklamada, yapay zeka için şirketin en üst düzey çipine yeni özellikler eklendiği ve yeni çipin gelecek yıl piyasaya sürüleceği duyuruldu.
Nvidia’dan Pazartesi günü yapılan açıklamada, yapay zeka için şirketin en üst düzey çipine yeni özellikler eklendiği ve yeni çipin gelecek yıl piyasaya sürüleceği duyuruldu.
H200 olarak adlandırılan yeni çip, Nvidia’nın halihazırda en iyi çipi olan H100’ü geride bırakacak. Yapılan iyileştirmenin temel olarak, bir çipin en maliyetli parçalarından biri olan ve çipin daha çok veriyi daha kısa bir sürede işleyebilmesine olanak sağlayan bellek bant genişliğini yükseltmek üzerine olduğu belirtiliyor.
Nvidia mevcut durumda, yapay zekâ çipleri pazarında hâkim durumda ve sorgulara insan benzeri yanıtlar veren OpenAI’ın ChatGPT hizmeti ve buna benzer birçok üretken yapay zekâ hizmetini destekliyor. Yeni çipe daha yüksek bant genişliğine sahip belleğin eklenmesi ve çipin işleme elemanlarına daha hızlı bağlantı sağlanması, bu tür hizmetlerin yapılan sorgulara daha hızlı yanıt verebileceği anlamına geliyor.
H100, 80 gigabaytlık bellek bant genişliğine sahipken, H200’de bant genişliği 141 gigabayt. Nvidia, yeni çipteki bellek için tedarikçilerini açıklamadı ancak Micron Technology, Eylül ayında Nvidia tedarikçisi olmak için çalıştığını duyurmuştu. Nvidia Koreli SK Hynix’ten de bellek satın alıyor.
Nvidia’dan yapılan açıklamada, uzmanlaşmış AI bulut sağlayıcıları CoreWeave, Lambda ve Vultr’un yanı sıra Amazon Web Services, Google Cloud, Microsoft Azure ve Oracle Cloud Infrastructure’ın H200 çiplerine erişim sunan ilk bulut hizmet sağlayıcıları arasında olacağı belirtildi.
Kaynak: Reuters
Haftanın popüler haberleri