
Investing.com — Intel (NASDAQ:INTC) Labs ve Weizmann Bilim Enstitüsü, büyük lisan modellerinin (LLM) çıktı kalitesinden ödün vermeden 2,8 kata kadar daha süratli çalışmasını sağlayan yeni bir usul geliştirdi. Şirket bu gelişmeyi duyurdu.
“Spekülatif kod çözme” alanındaki bu atılım, Kanada’nın Vancouver kentinde düzenlenen Memleketler arası Makine Tahsili Konferansı’nda sunuldu. Bu teknik, farklı söz dağarcıkları kullansalar bile, rastgele bir küçük “taslak” modelin rastgele bir büyük lisan modelini hızlandırmasına imkan tanıyor.
Intel Labs’ın Doğal Lisan Sürece Grubu’nun kıdemli araştırmacısı Oren Pereg şöyle konuştu: “Üretken yapay zekadaki temel bir verimsizliği çözdük. Araştırmamız, spekülatif hızlandırmayı kozmik bir araca dönüştürmenin yolunu gösteriyor. Bu yalnızca teorik bir güzelleştirme değil; bunlar halihazırda geliştiricilerin daha süratli ve daha akıllı uygulamalar oluşturmasına yardımcı olan pratik araçlar.”
Spekülatif kod çözme, küçük ve süratli bir modeli daha büyük ve daha hakikat bir modelle eşleştirerek çalışır. “Fransa’nın başşehri nedir” üzere bir istem verildiğinde, klasik bir LLM her kelimeyi adım adım oluşturur. Bu da her adımda değerli kaynaklar tüketir. Spekülatif kod çözme ile küçük yardımcı model süratle “Paris, ünlü bir şehir” üzere tam bir cümle taslağı oluşturur. Büyük model daha sonra bunu doğrulayarak hesaplama döngülerini azaltır.
Yeni yol, daha evvel paylaşılan söz dağarcıkları yahut birlikte eğitilmiş model ailelerini gerektiren sınırlamaları ortadan kaldırarak farklı model tipleri ortasında pratik hale getiriyor. Bu teknik satıcıdan bağımsızdır ve farklı geliştiricilerin ve ekosistemlerin modelleriyle çalışır.
Weizmann Enstitüsü’nde Prof. David Harel’in araştırma kümesinde doktora öğrencisi olan Nadav Timor şunları söyledi: “Bu çalışma, üretken yapay zekayı daha süratli ve daha ucuz hale getirmenin önündeki büyük bir teknik pürüzü ortadan kaldırıyor. Algoritmalarımız, daha evvel yalnızca kendi küçük taslak modellerini eğiten kuruluşlara sunulan en son teknoloji hızlandırmaların kilidini açıyor.”
Araştırma, spekülatif kodlamayı söz dağarcığı hizalamasından ayıran üç yeni algoritma sunuyor. Bu algoritmalar halihazırda Hugging Face Transformers açık kaynak kütüphanesine entegre edilmiş durumda. Böylelikle gelişmiş LLM hızlandırma, özel kod gerektirmeden milyonlarca geliştiricinin kullanımına sunuluyor.
Bu makale yapay zekanın dayanağıyla oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Kural ve Şartlar kısmımıza bakın.