Dünya Haberleri

Beyaz Saray’ın AI Taahhütleri Nasıl Birikiyor?

Bu hafta Beyaz Saray, yapay zekanın oluşturduğu riskleri yönetmek için önde gelen yedi yapay zeka şirketinden “gönüllü taahhütler” aldığını duyurdu.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft ve OpenAI gibi şirketlerin herhangi bir konuda anlaşmaya varmasını sağlamak ileriye doğru atılmış bir adımdır. AI araştırma ve geliştirmeye yaklaşma şekillerinde ince ama önemli farklılıklara sahip sert rakipleri içerirler.

Örneğin Meta, AI modellerini geliştiricilerin ellerine teslim etmek için o kadar hevesli ki, birçoğunu açık kaynaklı hale getirdi ve kodlarını herkesin kullanması için açık hale getirdi. Anthropic gibi diğer laboratuvarlar, teknolojilerini daha sınırlı yollarla piyasaya sürerek daha temkinli bir yaklaşım benimsedi.

Ancak bu taahhütler aslında ne anlama geliyor? Ve yasaların zorlamasıyla desteklenmedikleri göz önüne alındığında, yapay zeka şirketlerinin işleyişi hakkında çok şey değiştirmeleri muhtemel mi?

AI düzenlemesinin potansiyel riskleri göz önüne alındığında, ayrıntılar önemlidir. Öyleyse, burada üzerinde anlaşmaya varılan hususlara daha yakından bakalım ve potansiyel etkiyi değerlendirelim.

Taahhüt 1: Şirketler, piyasaya sürülmeden önce AI sistemlerinin dahili ve harici güvenlik testlerini taahhüt eder.

Bu yapay zeka şirketlerinin her biri, modellerinin piyasaya sürülmeden önce güvenlik testlerini – genellikle “red-teaming” olarak adlandırılan – zaten yapıyor. Bir düzeyde, bu gerçekten yeni bir taahhüt değil. Ve bu belirsiz bir vaat. Ne tür testlerin gerekli olduğu veya testi kimin yapacağı hakkında pek fazla ayrıntı içermiyor.

Taahhütlere eşlik eden bir açıklamada Beyaz Saray, yalnızca yapay zeka modellerinin test edilmesinin “kısmen bağımsız uzmanlar tarafından gerçekleştirileceğini” ve “biyogüvenlik ve siber güvenlik ile bunların daha geniş toplumsal etkileri gibi” yapay zeka risklerine odaklanılacağını söyledi.

Yapay zeka şirketlerinin bu tür testleri yapmaya devam etme taahhüdünde bulunmalarını sağlamak ve test sürecinde daha fazla şeffaflığı teşvik etmek iyi bir fikirdir. Ayrıca, hükümet ve askeri yetkililerin değerlendirmek için muhtemelen şirketlerden daha uygun olduğu bazı AI riski türleri vardır – AI modellerinin biyolojik silah geliştirmek için kullanılabileceği tehlikesi gibi.

Yapay Zeka endüstrisinin, Hizalama Araştırma Merkezi’nin OpenAI ve Anthropic tarafından önceden piyasaya sürülen modellerde yürüttüğü “otonom çoğaltma” testleri gibi standart bir güvenlik testleri dizisi üzerinde anlaşmasını çok isterim. Ayrıca federal hükümetin pahalı olabilecek ve önemli teknik uzmanlığa sahip mühendisler gerektirebilecek bu tür testleri finanse ettiğini görmek isterim. Şu anda, birçok güvenlik testi şirketler tarafından finanse ediliyor ve denetleniyor, bu da çıkar çatışması ile ilgili bariz soruları gündeme getiriyor.

Taahhüt 2: Şirketler, AI risklerini yönetme konusunda sektör genelinde ve hükümetler, sivil toplum ve akademi ile bilgi paylaşmayı taahhüt eder.

Bu taahhüt de biraz belirsiz. Bu şirketlerden birçoğu, genellikle akademik makalelerde veya kurumsal blog gönderilerinde yapay zeka modelleri hakkında zaten bilgi yayınlıyor. Aralarında OpenAI ve Anthropic’in de bulunduğu birkaç tanesi, bu modelleri daha güvenli hale getirmek için attıkları adımları özetleyen “sistem kartları” adı verilen belgeler de yayınlıyor.

Ancak zaman zaman güvenlik endişelerini gerekçe göstererek bilgileri sakladılar. OpenAI, bu yıl en son yapay zeka modeli GPT-4’ü piyasaya sürdüğünde, endüstri geleneklerini bozdu ve ne kadar veri üzerinde eğitildiğini veya modelin ne kadar büyük olduğunu (“parametreler” olarak bilinen bir ölçüm) açıklamamayı seçti. Rekabet ve güvenlikle ilgili endişeler nedeniyle bu bilgileri vermeyi reddettiğini söyledi. Aynı zamanda, teknoloji şirketlerinin rakiplerinden uzak tutmayı sevdiği türden veriler de oluyor.

Bu yeni taahhütler kapsamında, AI şirketleri bu tür bilgileri halka açık hale getirmek zorunda kalacak mı? Ya bunu yapmak AI silahlanma yarışını hızlandırma riski taşıyorsa?

Beyaz Saray’ın amacının şirketleri parametre sayımlarını açıklamaya zorlamaktan çok onları modellerinin ortaya koyduğu (veya koymadığı) riskler hakkında birbirleriyle bilgi alışverişi yapmaya teşvik etmek olduğundan şüpheleniyorum.

Ancak bu tür bilgi paylaşımı bile riskli olabilir. Google’ın yapay zeka ekibi, ön sürüm testleri sırasında yeni bir modelin ölümcül bir biyolojik silah tasarlamak için kullanılmasını engellediyse, bu bilgiyi Google dışında paylaşmalı mı? Bu, kötü oyunculara aynı görevi yerine getirmek için daha az korunan bir modeli nasıl elde edebilecekleri konusunda fikir verme riskini taşır mı?

Taahhüt 3: Şirketler, tescilli ve yayınlanmamış model ağırlıklarını korumak için siber güvenlik ve içeriden gelen tehdit önlemlerine yatırım yapmayı taahhüt eder.

Bu, oldukça basit ve konuştuğum AI içerdekileri arasında tartışmasız. “Model ağırlıkları”, AI modellerine çalışma yeteneği veren matematiksel talimatlar için kullanılan teknik bir terimdir. Ağırlıklar, kendi ChatGPT sürümünüzü veya başka bir AI ürününü oluşturmak isteyen yabancı bir hükümetin (veya rakip bir şirketin) temsilcisi olsaydınız, çalmak isteyeceğiniz şeylerdir. Ve bu, AI şirketlerinin sıkı bir şekilde kontrol altında tutmakta kazanılmış bir çıkarı olduğu bir şey.

Model ağırlıklarının sızdırılmasıyla ilgili iyi duyurulmuş sorunlar zaten var. Örneğin, Meta’nın orijinal LLaMA dil modelinin ağırlıkları, modelin halka açıklanmasından birkaç gün sonra 4chan ve diğer web sitelerine sızdırıldı. Daha fazla sızıntı riski ve diğer ulusların bu teknolojiyi ABD şirketlerinden çalmaya yönelik çıkarları göz önüne alındığında, yapay zeka şirketlerinden kendi güvenliklerine daha fazla yatırım yapmalarını istemek çok kolay geliyor.

Biden’ı soldan, Amazon’dan Adam Selipsky, OpenAI’den Greg Brockman, Meta’dan Nick Clegg, Inflection’dan Mustafa Suleyman, Anthropic’ten Dario Amodei, Google’dan Kent Walker ve Microsoft’tan Brad Smith dinliyordu. Kredi… Anna Moneymaker/Getty Images

Taahhüt 4: Şirketler, yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt eder.

Bunun ne anlama geldiğinden pek emin değilim. Her yapay zeka şirketi, modellerini piyasaya sürdükten sonra, genellikle kullanıcıların modellerle kötü şeyler yapmaya çalışması veya şirketlerin öngörmediği şekillerde korkuluklarını (“jailbreaking” olarak bilinen bir uygulama) atlatması nedeniyle, modellerindeki güvenlik açıklarını keşfetti.

Beyaz Saray’ın taahhüdü, şirketleri bu güvenlik açıkları için “sağlam bir raporlama mekanizması” kurmaya çağırıyor, ancak bunun ne anlama geldiği açık değil. Facebook ve Twitter kullanıcılarının kuralları ihlal eden gönderileri bildirmesine izin verenlere benzer bir uygulama içi geri bildirim düğmesi? OpenAI’nin bu yıl sistemlerinde kusur bulan kullanıcıları ödüllendirmek için başlattığı hata ödül programı gibi bir hata ödül programı mı? Başka bir şey? Daha fazla ayrıntı için beklememiz gerekecek.

Taahhüt 5: Şirketler, kullanıcıların içeriğin ne zaman yapay zeka tarafından üretildiğini bilmelerini sağlamak için filigran sistemi gibi sağlam teknik mekanizmalar geliştirmeyi taahhüt eder.

Bu ilginç bir fikir ama yoruma çok yer bırakıyor. Şimdiye kadar, AI şirketleri, insanların AI tarafından oluşturulan içeriğe bakıp bakmadıklarını anlamalarına olanak tanıyan araçlar tasarlamak için mücadele etti. Bunun için iyi teknik nedenler var, ancak insanların yapay zeka tarafından üretilen işleri kendilerininmiş gibi göstermesi gerçek bir sorun. (Herhangi bir lise öğretmenine sorun.) Ve şu anda yapay zeka çıktılarını tespit edebildiği için tanıtılan araçların çoğu, bunu gerçekten herhangi bir doğruluk derecesiyle yapamaz.

Bu sorunun tamamen çözülebilir olduğu konusunda iyimser değilim. Ancak şirketlerin üzerinde çalışma sözü vermesinden memnunum.

Taahhüt 6: Şirketler, yapay zeka sistemlerinin yeteneklerini, sınırlamalarını ve uygun ve uygunsuz kullanım alanlarını kamuya açıklamayı taahhüt eder.

Pek çok kıpırdatma odası olan, kulağa mantıklı gelen başka bir taahhüt. Şirketlerin sistemlerinin yetenekleri ve sınırlamaları hakkında ne sıklıkla rapor vermeleri gerekecek? Bu bilgilerin ne kadar ayrıntılı olması gerekecek? Yapay zeka sistemleri kuran şirketlerin birçoğunun kendi sistemlerinin yeteneklerine şaşırdığı düşünülürse, onları önceden tanımlamaları gerçekten ne kadar iyi beklenebilir?

Taahhüt 7: Şirketler, zararlı önyargı ve ayrımcılıktan kaçınma ve mahremiyeti koruma da dahil olmak üzere yapay zeka sistemlerinin oluşturabileceği toplumsal risklere ilişkin araştırmalara öncelik vermeyi taahhüt eder.

“Araştırmaya öncelik verme” taahhüdünde bulunmak, taahhüdün aldığı kadar belirsizdir. Yine de, bu taahhüdün, AI güvenlik görevlilerinin yaptığı gibi, AI şirketlerinin önyargı ve ayrımcılık gibi yakın vadeli zararları kıyamet günü senaryoları hakkında endişelenmekten daha öncelikli hale getirmesini isteyen AI etik kalabalığındaki birçok kişi tarafından iyi karşılanacağından eminim.

“Yapay zeka etiği” ile “Yapay zeka güvenliği” arasındaki fark kafanızı karıştırıyorsa, yapay zeka araştırma topluluğu içinde her biri diğerinin yanlış türden zararları önlemeye odaklandığını düşünen iki savaşan grup olduğunu bilin.

Taahhüt 8: Şirketler, toplumun en büyük zorluklarını ele almaya yardımcı olmak için gelişmiş AI sistemleri geliştirmeyi ve dağıtmayı taahhüt eder.

Pek çok insanın gelişmiş yapay zekanın olması gerektiğini tartışacağını sanmıyorum. Olumsuz toplumun en büyük zorluklarını çözmeye yardımcı olmak için kullanılabilir. Beyaz Saray, yapay zeka şirketlerinin çabalarını yoğunlaştırmasını istediği alanlardan ikisi olarak “kanserin önlenmesi” ve “iklim değişikliğinin hafifletilmesi”ni listeliyor ve bu konuda benden herhangi bir anlaşmazlık çıkmayacak.

Bununla birlikte, bu hedefi biraz karmaşık hale getiren şey, yapay zeka araştırmasında anlamsız görünmeye başlayan şeyin genellikle daha ciddi sonuçlara yol açmasıdır. Go masa oyununu oynamak için eğitilmiş bir AI sistemi olan DeepMind’s AlphaGo’ya giren teknolojinin bir kısmının, temel bilimsel araştırmayı destekleyen büyük bir keşif olan proteinlerin üç boyutlu yapılarını tahmin etmede yararlı olduğu ortaya çıktı.

Genel olarak, Beyaz Saray’ın AI şirketleriyle olan anlaşması, önemli olmaktan çok sembolik görünüyor. Şirketlerin bu taahhütlere uymasını sağlayacak herhangi bir uygulama mekanizması yoktur ve bunların çoğu, yapay zeka şirketlerinin hâlihazırda almakta olduğu önlemleri yansıtmaktadır.

Yine de makul bir ilk adım. Ve bu kurallara uymayı kabul etmek, AI şirketlerinin, başları belaya girene kadar hükümetle ilişki kurmayı bekleyen önceki teknoloji şirketlerinin başarısızlıklarından ders çıkardığını gösteriyor. Washington’da, en azından teknoloji düzenlemesi söz konusu olduğunda, erken ortaya çıkmakta fayda var.

Haberois Editör

Türkiye'nin bir numaralı haber platformu olan Haberois, okuyucularına en güncel son dakika haberlerini tarafsız olarak sunar.

İlgili Makaleler

Başa dön tuşu