
Investing.com — Alibaba Group Holdings Ltd ADR (NYSE:BABA) Salı günü yeni jenerasyon büyük lisan modeli serisi Qwen3’ü tanıttı. Şirket böylelikle yapay zeka eserlerini çeşitli model boyutları ve mimarileriyle genişletti. Bu seri, 0,6 milyardan 235 milyar parametreye kadar uzanan sekiz açık yüklü modeli içeriyor. Bunların altısı ağır, ikisi ise uzman karışımı (MoE) modellerdir.
Amiral gemisi model olan Qwen3-235B-A22B, kodlama, matematik ve genel misyonlardaki kıyaslama testlerinde DeepSeek-R1, Grok-3 ve Gemini-2.5-Pro üzere önde gelen modellerle rekabet edebilecek bir performans gösterdi. Qwen3-30B-A3B üzere daha küçük modeller de daha fazla parametre içeren modelleri geride bıraktı. Bu durum, yapı ve eğitimde verimlilik artışına işaret ediyor.
Ön eğitimli ve eğitim sonrası varyantlar dahil tüm modeller Hugging Face, ModelScope ve Kaggle üzerinden kamuya açık halde erişilebilir durumda. Alibaba, dağıtım için SGLang ve vLLM’yi öneriyor. Mahallî kullanıcılar ise LMStudio, llama.cpp ve KTransformers üzere araçları kullanarak Qwen3’ü çalıştırabilir.
Qwen3, ölçeklenebilir ve uyarlanabilir performans sunuyor. Kullanıcılar hesaplama bütçelerini doğruluk ve kaynak maliyeti ortasında istikrar kuracak biçimde ayarlayabilir. Bu esneklik, yapay zekayı tüketici yahut kurumsal iş akışlarına entegre eden geliştiricilerin giderek çeşitlenen taleplerini karşılamayı amaçlıyor.
Bu modeller 119 lisan ve lehçeyi destekliyor. Bu sayı, bir evvelki model olan Qwen2.5’in kapsadığı lisan sayısının üç katı. Bu geniş çok lisanlı yetenek, Qwen3’ü varlıklı dilsel çeşitliliğe sahip gelişmekte olan bölgeler dahil global pazarlarda benimsenmek için avantajlı pozisyona getiriyor.
Qwen3 modelleri, kodlama ve aracı fonksiyonlarda ilerlemeler gösteriyor. Model-koşullu komut verme (MCP) ile daha derin entegrasyon için geliştirilmiş durumda. Bu iyileştirmeler, otonom casuslar ve daha yüksek hassasiyete sahip geliştirici araçları üzere sofistike uygulamaları destekliyor.
Seri, STEM, muhakeme, kitaplar ve sentetik data setleri dahil yüksek kaliteli kaynaklardan oluşan 36 trilyon token üzerinde eğitildi. Bu bilgi yükseltmesi, lisan manaya, programlama yetkinliği ve uzun bağlam hafızasında değerli kazanımlar sağlıyor.
Qwen3, MoE modelleri için qk katman normalizasyonu ve global-batch yük dengeleme üzere mimari ve eğitim yenilikleri kullanıyor. Bu durum, daha fazla eğitim stabilitesi ve tüm model ölçeklerinde dengeli performans iyileştirmeleri sağlıyor.
Üç etaplı ön eğitim yaklaşımı, lisan kavrama, muhakeme ve uzun bağlam işlemeyi başka farklı hedefliyor. Token dizileri 32.000’e kadar uzatıldı. Bu modüler strateji, Qwen3’ün karmaşık, çok turlu etkileşimleri ve daha büyük dokümanları sürece yeteneğini geliştiriyor.
Her model çeşidi için ölçekleme kanunlarıyla yönlendirilen optimize edilmiş hiperparametrelerle Qwen3, Alibaba’nın bugüne kadarki en şuurlu ve teknik açıdan kapsamlı eseri olarak öne çıkıyor. Kesim gözlemcileri, açık tartı stratejisi ve çok lisanlı erişiminin, onu global yapay zeka yarışında değerli bir rakip haline getirebileceğini söylüyor.
Bu makale yapay zekanın dayanağıyla oluşturulmuş, çevrilmiş ve bir editör tarafından incelenmiştir. Daha fazla bilgi için Kaide ve Şartlar kısmımıza bakın.