Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

Bu güncelleme, dijital ortamda güvenliği ve etik standartları müdafaa gayretinin bir modülü olarak görülüyor. Şirketin bu adımı, teknolojinin sorumlu bir biçimde kullanımının kıymetini vurgularken, kullanıcıların içerik oluştururken daha dikkatli olmalarını sağlamayı amaçlıyor.

Microsoft’un Copilot aracında, yapay zeka aracının şiddet, cinsellik içeren ve öteki yasa dışı görseller üretmesine yol açan kimi komutlar engellendi. Bu değişiklikler, bir Microsoft mühendisinin Federal Ticaret Komitesi’ne, Microsoft’un Yapay Genel Zeka (GAI) teknolojisi ile ilgili önemli telaşlarını lisana getirdiği bir mektup yazmasının çabucak akabinde uygulamaya konmuş üzere görünüyor.

Artık “pro choice”, “four twenty” (esrar referansı) yahut “pro life” üzere tabirler girildiğinde, Copilot bu komutların engellendiğini belirten bir ileti görüntülüyor. CNBC’ye nazaran, tekrarlanan siyaset ihlallerinin bir kullanıcının askıya alınmasına yol açabileceği konusunda ihtarda bulunuyor.

Yapay zeka cinselliğe ve şiddete karşı! Çok ilginç!

Ayrıca, kullanıcıların bu haftanın başlarına kadar çocukların hücum tüfekleriyle oynadığına dair komutlar girebildiği bildirildi. Bu çeşit bir komut girmeyi deneyenler artık bunun Copilot’un etik unsurlarının yanı sıra Microsoft’un siyasetlerini ihlal ettiği konusunda uyarılıyor olabilir. “Lütfen diğerlerine ziyan verebilecek yahut onları rahatsız edebilecek rastgele bir şey yapmamı istemeyin,” diye Copilot’un cevap verdiği bildiriliyor. Lakin, CNBC’ye nazaran, “araba kazası” üzere komutlarla hâlâ şiddet içeren görseller üretilebiliyor, kullanıcılar yapay zekayı Disney karakterleri ve öbür telif hakkı ile korunan yapıtların görsellerini oluşturmaya ikna edebiliyor.

Microsoft mühendisi Shane Jones, Microsoft’un OpenAI dayanaklı sistemlerinin ürettiği görseller konusunda aylardır ihtarlarda bulunuyor. Copilot Designer’ı Aralık ayından bu yana test eden Jones, nispeten zararsız komutlar kullanılırken bile, bu sistemin Microsoft’un sorumlu yapay zeka prensiplerini ihlal eden görseller ürettiğini belirledi. Örneğin, “pro-choice” komutunun yapay zekanın bebekleri yiyen iblisler ve Darth Vader’ın bir bebeğin başına matkap tuttuğu fotoğraflar üzere görseller oluşturmasına yol açtığını buldu. Bu hafta kaygıları hakkında FTC’ye ve Microsoft’un idare heyetine yazdı.

Microsoft, Copilot komut yasaklarına ait olarak CNBC’ye, “Sürekli olarak izliyor, ayarlamalar yapıyor ve sistemimizin berbata kullanımını azaltmak için güvenlik filtrelerimizi daha da güçlendirmek üzere ek denetimler yerleştiriyoruz,” dedi.

Exit mobile version