AWS ve NVIDIA, büyük makine tahsili modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni kuşak altyapıya odaklanan bir iş birliği yapıyor

EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, üretici yapay zeka eğitimini ve büyük ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak formda optimize edildi

Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan büyük lisan modellerini (LLM’ler) eğitmek ve üretici yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı yapay zeka (AI) altyapısını oluşturmaya odaklanan çok taraflı bir iş birliği yaptıklarını duyurdu.

Bu iş birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni jenerasyon Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en büyük derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar süreç performansı sağlayacak son teknoloji ağ bağlantısını ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme periyodik, yüksek bant genişlikli ağ transfer suratı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına imkan tanıyan ve böylelikle yapay zeka için istek üzerine harika bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci kuşak Esnek Yapı Bağdaştırıcısı (EFA, Elastic Fabric Adapter) ağ irtibatından yararlanan birinci GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler ortasında, eser geliştirmelerini hızlandırmak ve müşterilerine yeni empatik yapay zeka tabanlı tecrübeler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor. 

AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) üzere çeşitli uygulamalara yönelik, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı tahliller sunmak için 12 yılı aşkın müddettir iş birliği yapıyor. Bugün birçok müşterinin makine tahsili eğitimi iş yüklerini 10.000’den fazla GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her kuşakta ölçeklenebilirlik sonlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda eşsiz bir tecrübeye sahip. İkinci jenerasyon EFA, müşterilerin P5 bulut sunucularını 20.000’den fazla NVIDIA H100 GPU’ya ölçeklendirmelerine imkan sağlayarak startup’lardan büyük şirketlere kadar geniş bir yelpazede müşterilere istek üzerine harika bilgisayar yetenekleri sunabilecek.”

NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi süreç ve yapay zeka tam vaktinde geldi. Hızlandırılmış bilgi süreç, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı sıra kademeli fonksiyonların hızlandırılmasını sağlar. Üretici yapay zeka, şirketleri, eserlerini ve iş modellerini tekrar tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini fark etmelerini sağladı. AWS, uzun müddettir tahlil ortağımız ve NVIDIA GPU’ları sunan birinci bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları pahalandırmak için hızlandırılmış bilgi süreç ve üretici yapay zekadan yararlanmalarına yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” biçiminde konuştu. 

Yeni Üstün Bilgi Süreç Kümeleri ve Sunucu Tasarımları

NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, görüntü ve imaj oluşturma, ses tanıma ve daha fazlası dahil olmak üzere en kuvvetli ve bilgi süreç açısından ağır üretici yapay zeka uygulamalarının ardındaki giderek karmaşıklaşan LLM’leri ve manzara sürece modellerini eğitmek için ülkü olarak kullanılabiliyor. Yeni sunucu dizaynları ise, NVIDIA ve AWS mühendislik gruplarının termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli yapay zekayı hedefliyor ve AWS altyapısında güç verimliliğine odaklanarak geniş ölçekte yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar çoklukla makul yapay zeka iş yükleri için CPU’lardan 20 kat daha fazla güç tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.

Kaynak: (BYZHA) – Beyaz Haber Ajansı

Exit mobile version