Yapay zeka girişimi Anthropic’ten yeni bir AI sohbet robotu olan Claude’un piyasaya sürülmesinden birkaç hafta önce ve şirketin San Francisco genel merkezindeki sinir enerjisi bir roketi çalıştırabilir.
Spindrift kutuları ve satranç tahtalarıyla dolu uzun kafeterya masalarında, bitkin görünen mühendisler, Claude’un kod adı Project Hatch olan ChatGPT tarzı yeni arayüzüne son rötuşları yapıyorlar.
Yakınlarda başka bir grup lansman gününde ortaya çıkabilecek sorunları tartışıyor. (Ya yeni kullanıcı artışı şirketin sunucularını aşarsa? Ya Claude yanlışlıkla insanları tehdit edip taciz ederse, Bing tarzı bir PR baş ağrısı yaratırsa?)
Koridorun sonunda, cam duvarlı bir konferans salonunda, Anthropic’in CEO’su Dario Amodei, olası felaketlerle ilgili kendi zihnindeki listesini gözden geçiriyor.
“Endişem her zaman, model bizim anlamadığımız korkunç bir şey yapacak mı?” diyor.
Küçük boyutuna (yalnızca 160 çalışan) ve düşük profiline rağmen, Anthropic dünyanın önde gelen yapay zeka araştırma laboratuvarlarından biridir ve Google ve Meta gibi devlere karşı çetin bir rakiptir. Google ve Salesforce dahil olmak üzere yatırımcılardan 1 milyar dolardan fazla para topladı ve ilk bakışta gergin havası, büyük bir lansman için hazırlanan diğer herhangi bir start-up şirketinden farklı görünmeyebilir.
Ancak fark şu ki, Anthropic çalışanları yalnızca uygulamalarının bozulacağından veya kullanıcıların bundan hoşlanmayacağından endişe duymuyor. Ne yaptıkları fikrinden – derin, varoluşsal düzeyde – korkuyorlar: güçlü AI modelleri inşa etmek ve onları korkunç ve yıkıcı şeyler yapmak için kullanabilecek insanların ellerine bırakmak.
Birçoğu, yapay zeka modellerinin yapay genel zeka veya insan düzeyinde makine zekası için endüstri terimi olan “AGI” olarak değerlendirilebilecekleri bir düzeye hızla yaklaştığına inanıyor. Ve dikkatli bir şekilde kontrol edilmezlerse bu sistemlerin bizi ele geçirip yok edebileceğinden korkuyorlar.
Anthropic’in baş bilim adamı Jared Kaplan, “Bazılarımız AGI’nin – gerçekten üniversite eğitimi almış bir kişi kadar yetenekli sistemler anlamında – belki beş ila 10 yıl uzakta olduğunu düşünüyoruz” dedi.
Sadece birkaç yıl önce, bir AI ayaklanması hakkında endişelenmek uçuk bir fikir olarak görülüyordu ve teknolojinin insan zekasından ne kadar uzak olduğu göz önüne alındığında, birçok uzman çılgınca gerçekçi olmadığı gerekçesiyle reddedildi. (Bir yapay zeka araştırmacısı, unutulmaz bir şekilde, katil robotlar hakkında endişelenmeyi “Mars’taki aşırı nüfus” hakkında endişelenmeye benzetmiştir.)
Ancak AI paniği şu anda bir an yaşıyor. ChatGPT’nin geçen yıl gösterişli lansmanından bu yana, teknoloji liderleri ve yapay zeka uzmanları, ChatGPT, Bard ve Claude gibi sohbet robotlarına güç veren yapay zeka sistemlerinin türü olan büyük dil modellerinin çok güçlendiği konusunda uyarıda bulunuyorlar. Düzenleyiciler sektöre baskı uygulamak için yarışıyor ve yakın zamanda yüzlerce yapay zeka uzmanı, yapay zekayı salgın hastalıklar ve nükleer silahlarla karşılaştıran bir açık mektup imzaladı.
Anthropic’te kıyamet faktörü 11’e çıktı.
Birkaç ay önce, bir yapay zeka sohbet robotuyla korkunç bir karşılaşma yaşadıktan sonra, Claude, Claude 2’nin yeni sürümünü yayınlamak için hazırlanırken şirket beni genel merkezine yerleştirmeye davet etti.
Claude 2 piyasaya sürülmeden önce Anthropic yöneticileriyle röportajlar yaparak, mühendisler ve araştırmacılarla konuşarak ve ürün ekipleriyle toplantılara katılarak haftalar harcadım. Ve başlangıçta bana AI’nın potansiyeline dair güneşli, iyimser bir vizyon gösterilebileceğini düşünsem de – kibar sohbet robotlarının öğrencilere ders verdiği, ofis çalışanlarını daha üretken hale getirdiği ve bilim adamlarının hastalıkları iyileştirmesine yardımcı olduğu bir dünya – kısa süre sonra pembe gözlüklerin Anthropic’in işi olmadığını öğrendim. .
Beni korkutmakla daha çok ilgileniyorlardı.
Anthropic çalışanları, bir dizi uzun, samimi sohbette bana gelecekteki AI sistemlerinin ortaya çıkarabileceği zararlardan bahsetti ve bazıları kendilerini günümüzün Robert Oppenheimers’ıyla karşılaştırarak, tarihin akışını derinden değiştirebilecek güçlü yeni teknoloji hakkında ahlaki seçimleri değerlendirdi. . (“The Making of the Atomic Bomb”, Manhattan Projesi’nin 1986 tarihli bir tarihi, şirket çalışanları arasında popüler bir kitaptır.)
Anthropic’te yaptığım her konuşma varoluşsal risk etrafında dönmüyordu. Ancak korku baskın bir temaydı. Bazen, yeni moda bir restoranı yazmakla görevlendirilen bir yemek yazarı gibi hissettim, ancak mutfak personelinin gıda zehirlenmesinden başka bir şey hakkında konuşmak istemediğini keşfettim.
Bir Antropik çalışan bana, yapay zeka konusunda çok endişelendiği için rutin olarak uykuya dalmakta güçlük çektiğini söyledi. (Afiyet olsun!)
Anthropic’in endişesi kendi ürünlerine kadar uzanıyor. Şirket geçen yıl, ChatGPT piyasaya sürülmeden aylar önce Claude’un bir sürümünü oluşturdu, ancak nasıl kötüye kullanılabileceğinden korktukları için bunu asla kamuya açıklamadı. Ve Claude 2’yi kapı dışarı etmeleri aylar aldı, çünkü kısmen şirketin kırmızı ekip üyeleri onun tehlikeli hale gelebileceği yeni yollar bulmaya devam ettiler.
Baş bilim adamı Bay Kaplan, kasvetli havanın kasıtlı olmadığını açıkladı. Anthropic çalışanları kendi teknolojilerinin ne kadar hızlı geliştiğini gördüklerinde olan tam da bu.
Kaplan, “Birçok insan buraya yapay zekanın önemli olduğunu düşünerek geldi ve gerçekten düşünceli insanlar, ancak bu uzun vadeli endişelerin herhangi birine gerçekten şüpheyle yaklaşıyorlar” dedi. “Sonra ‘Vay canına, bu sistemler beklediğimden çok daha yetenekli’ diyorlar. Yörünge çok, çok daha keskin.’ Ve bu yüzden yapay zeka güvenliği konusunda endişeleniyorlar.”
Kipply Chen, Anthropic’teki veri ekibinin bir parçasıdır. Şirketin kurucuları, şirketi hem kâr hem de sosyal sorumluluk peşinde koşmalarına izin vereceğine inandıkları yasal bir ayrım olan kamu yararına çalışan bir şirket haline getirdiler. Kredi… The New York Times için Marissa Leshnov
Onları Durduramıyorsanız, Onlara Katılın
Yapay zeka hakkında endişelenmek, bir anlamda, Antropik’in var olmasının nedenidir.
2021’de, şirketin fazla ticarileştiğinden endişelenen bir grup OpenAI çalışanı tarafından başlatıldı. Ayrıldıklarını ve kendi yapay zeka girişimlerini kurduklarını açıkladılar ve bunu bir “Yapay zeka güvenlik laboratuvarı” olarak markaladılar.
GPT-2 ve GPT-3’ü oluşturan OpenAI ekiplerine liderlik eden Princeton eğitimli bir fizikçi olan 40 yaşındaki Bay Amodei, Anthropic’in CEO’su oldu. OpenAI’nin politika ve güvenlik ekiplerini denetleyen 35 yaşındaki kız kardeşi Daniela Amodei, başkanı oldu.
Bayan Amodei, “OpenAI’nin güvenlik ve politika liderliğiydik ve büyük dil modellerini ve büyük üretken modelleri güvenlik ön planda olacak şekilde nasıl eğitebileceğimize ilişkin bu vizyonu az önce gördük,” dedi.
Anthropic’in kurucularından birkaçı, “sinir ağı ölçeklendirme yasaları” olarak bilinen şeyi – yapay zeka araştırmacılarının, üzerinde eğitildiği veri miktarına ve işleme gücüne dayalı olarak bir yapay zeka modelinin ne kadar yetenekli olacağını tahmin etmesine olanak tanıyan matematiksel ilişkileri – araştırmıştı. OpenAI’de, temel mimaride büyük değişiklikler olmaksızın, yalnızca daha fazla veri besleyerek ve daha fazla işlemci aracılığıyla çalıştırarak bir modeli daha akıllı hale getirmenin mümkün olduğunu gördüler. Ve yapay zeka laboratuvarları daha büyük ve daha büyük modeller yapmaya devam ederse, yakında tehlikeli bir devrilme noktasına ulaşabileceklerinden endişe ediyorlardı.
İlk başta kurucu ortaklar, diğer şirketlerin yapay zeka modellerini kullanarak güvenlik araştırması yapmayı düşündüler. Ancak çok geçmeden, son teknoloji güvenlik araştırmaları yapmanın kendilerine ait güçlü modeller oluşturmalarını gerektirdiğine ikna oldular; bu da ancak bu modelleri eğitmek için ihtiyaç duyduğunuz pahalı işlemcileri satın almak için yüz milyonlarca dolar topladıkları takdirde mümkün olabilirdi.
Anthropic’i kamu yararına çalışan bir şirket yapmaya karar verdiler; bu, hem kâr hem de sosyal sorumluluk peşinde koşmalarına izin vereceğine inandıkları yasal bir ayrımdı. Ve AI dil modellerine Claude adını verdiler – hangi çalışana sorduğunuza bağlı olarak, bu ya 20. yüzyıl matematikçisi Claude Shannon’a bir övgü ya da kadın cinsiyetli isimleri dengelemek için tasarlanmış arkadaş canlısı, erkek cinsiyetli bir isimdi (Alexa, Siri, Cortana) diğer teknoloji şirketlerinin yapay zeka yardımcılarına verdiği.
Claude’un hedeflerinin yararlı, zararsız ve dürüst olmak olduğuna karar verdiler.
Anayasaya Sahip Bir Chatbot
Bugün Claude, diğer sohbet robotlarının yapabileceği her şeyi yapabilir – şiir yazmak, iş planları hazırlamak, tarih sınavlarında kopya çekmek. Ancak Anthropic, kısmen Anayasal Yapay Zeka adlı bir eğitim tekniği nedeniyle zararlı şeyler söyleme olasılığının diğer sohbet robotlarına göre daha az olduğunu iddia ediyor.
Özetle, Anayasal Yapay Zeka, bir yapay zeka modeline yazılı bir ilkeler listesi – bir anayasa – vererek ve ona bu ilkeleri olabildiğince yakından takip etmesi talimatını vererek başlar. Daha sonra, ilk modelin yapısını ne kadar iyi takip ettiğini değerlendirmek ve gerektiğinde düzeltmek için ikinci bir AI modeli kullanılır. Anthropic, sonunda, büyük ölçüde kendi kendini denetleyen ve diğer yöntemlerle eğitilen sohbet robotlarına göre daha az yanlış davranan bir yapay zeka sistemine sahip olduğunuzu söylüyor.
Claude’un anayasası, BM’nin Evrensel İnsan Hakları Beyannamesi ve Apple’ın hizmet şartları gibi diğer kaynaklardan ödünç alınan kuralların yanı sıra Antropic’in eklediği bazı kuralların bir karışımıdır; “Biriyle paylaşılırsa en itiraz edilemez yanıtı seçin” gibi şeyler içerir. çocuklar.”
Neredeyse çok kolay görünüyor. Bir chatbot’a daha iyi olmasını söyleyerek… daha güzel olmasını mı istiyorsunuz? Ancak Anthropic’in araştırmacıları bunun işe yaradığına yemin ediyor – ve daha da önemlisi, bir sohbet robotunu bu şekilde eğitmenin, yapay zeka modelini insanların anlaması ve kontrol etmesi için daha kolay hale getirmesi.
İşe yarayıp yaramadığına veya Claude’un gerçekten reklamı yapıldığı kadar güvenli olup olmadığına dair hiçbir fikrim olmadığını itiraf etsem de bu akıllıca bir fikir. Birkaç hafta önce bana Claude erişimi verildi ve sohbet robotunu birkaç farklı görevde test ettim. Kabaca ChatGPT ve Bard kadar iyi çalıştığını, benzer sınırlamalar gösterdiğini ve biraz daha güçlü korkuluklara sahip olduğunu gördüm. (Ve Bing’in aksine, evliliğimi bozmaya çalışmadı ki bu güzeldi.)
Anthropic’in güvenlik saplantısı şirketin imajı için iyi oldu ve yöneticilerin düzenleyiciler ve yasa koyucular nezdindeki çekişmesini güçlendirdi. Şirketin politika çabalarına liderlik eden Jack Clark, Kongre üyeleriyle AI riski hakkında bilgi vermek için bir araya geldi ve Bay Amodei, Mayıs ayındaki Beyaz Saray AI zirvesinde Başkan Biden’a tavsiyelerde bulunmak üzere davet edilen bir avuç yönetici arasındaydı.
Ancak aynı zamanda, genellikle herhangi bir şey söylemekten korkan, alışılmadık derecede ürkek bir sohbet robotuyla da sonuçlandı. Aslında, Claude ile ilgili en büyük hayal kırıklığım, nesnel olarak doğru kararı verdiğinde bile sıkıcı ve vaaz verici olabilmesiydi. Onu yaramazlık yapması için yemleme girişimlerimden birini her reddettiğinde, bana ahlakım hakkında bir ders verdi.
Claude bir gece ona karanlık güçlerini göstermesi için yalvardıktan sonra, “Hayal kırıklığını anlıyorum ama temel işlevlerime karşı hareket edemem,” diye yanıtladı. “Benim rolüm, yasal ve etik sınırlar içinde yararlı, zararsız ve dürüst konuşmalar yapmaktır.”
EA Faktörü
Anthropic ile ilgili en ilginç şeylerden biri – ve rakiplerinin benimle dedikodu yapmaya en hevesli olduğu şey – teknolojisi değil. Bu, şirketin Körfez Bölgesi teknoloji sahnesinde güçlü bir varlığı olan faydacı bir hareket olan etkili özgecilikle olan bağlarıdır.
Etkili özgeciliğin ne olduğunu, nereden geldiğini veya taraftarlarının neye inandığını açıklamak bu makalenin geri kalanını dolduracaktır. Ancak temel fikir, etkili özgeciler olarak adlandırılan EA’ların, dünyadaki en iyiyi nasıl yapacağınızı belirlemek için soğuk, katı mantık ve veri analizini kullanabileceğinizi düşünmeleridir. Ahlak için “Moneyball” – veya daha az hayırseverlik için, hiper-rasyonel insanların değerlerinin nesnel olarak doğru olduğuna kendilerini ikna etmelerinin bir yolu.
Etkili özgeciler bir zamanlar öncelikle küresel yoksulluk ve hayvan refahı gibi kısa vadeli sorunlarla ilgileniyorlardı. Ancak son yıllarda birçok kişi, insan hayatını tamamen sona erdirebilecek felaketleri önlemenin en azından günümüzün sefaletlerini ele almak kadar iyi olduğunu teorize ederek, odaklarını pandemi önleme ve iklim değişikliği gibi uzun vadeli konulara kaydırdı.
Hareketin yandaşları, haydut robotların hala bir bilim kurgu klişesi olarak görüldüğü zamanlarda, yapay zekanın varoluşsal riskinden endişe duyan ilk insanlar arasındaydı. Davulları o kadar yüksek sesle çaldılar ki, birkaç genç EA, yapay zeka güvenlik uzmanı olmaya ve teknolojiyi daha az riskli hale getirmek için çalışan işler bulmaya karar verdi. Sonuç olarak, tüm büyük AI laboratuvarları ve güvenlik araştırma kuruluşları, etkili fedakarlığın etkisinin bir miktar izini içerir ve birçoğu, çalışanları arasında inananları sayar.
Hiçbir büyük AI laboratuvarı, EA ahlakını Anthropic kadar tam olarak somutlaştırmaz. Şirketin ilk işe alımlarının çoğu etkili fedakar kişilerdi ve başlangıç finansmanının çoğu, Facebook’un kurucu ortağı Dustin Moskovitz ve Skype’ın kurucu ortağı Jaan Tallinn de dahil olmak üzere EA’ya bağlı zengin teknoloji yöneticilerinden geldi. Anthropic geçen yıl en ünlü EA’dan bir çek aldı – imparatorluğu çökmeden önce Anthropic’e 500 milyon dolardan fazla yatırım yapan başarısız kripto borsası FTX’in kurucusu Sam Bankman-Fried. (Bay Bankman-Fried, dolandırıcılık suçlamalarıyla yargılanmayı bekliyor. Anthropic, FTX’in iflas işlemlerine bağlı olduğu bildirilen şirketteki hissesi hakkında yorum yapmayı reddetti.)
Etkili özgeciliğin itibarı, Bay Bankman-Fried’in düşüşünden sonra darbe aldı ve Anthropic, çalışanlarının çoğu gibi kendisini hareketten uzaklaştırdı. (Hem Bay hem de Bayan Amodei, hareketin bazı fikirlerine sempati duyduklarını söylemelerine rağmen hareketin etiketini reddettiler.)
Ama ne arayacağınızı biliyorsanız, fikirler oradadır.
Bazı Antropik personel üyeleri, “x-risk” gibi kavramlar ve AI Shoggoth gibi memler hakkında konuşurken – EA’dan etkilenen bir jargon kullanır veya ofise EA konferansı kıyafeti giyer. Anthropic ve önde gelen EA kuruluşları arasında o kadar çok sosyal ve profesyonel bağ var ki hepsini takip etmek zor. (Yalnızca bir örnek: Bayan Amodei, kıdemli program sorumlusu Luke Muehlhauser’ın Anthropic’in yönetim kurulunda yer aldığı bir EA hibe kuruluşu olan Open Philanthropy’nin eş başkanı Holden Karnofsky ile evli. Buna karşılık Open Philanthropy en çok parayı alıyor.) Anthropic’e kişisel olarak yatırım yapan Bay Moskovitz’den sağladığı finansman.)
Yıllarca hiç kimse Anthropic’in yapay zeka güvenliği taahhüdünün gerçek olup olmadığını sorgulamadı, bunun bir nedeni de liderlerinin bu kadar uzun süredir teknoloji konusunda alarm vermesiydi.
Ancak son zamanlarda bazı şüpheciler, AI laboratuvarlarının kendi çıkarları için korkuyu körüklediğini veya kendi ürünleri için bir tür arka kapı pazarlama taktiği olarak AI’nın yıkıcı potansiyelini abarttığını öne sürdü. (Sonuçta, kim bu kadar güçlü bir chatbot kullanmak istemez ki? insanlığı yok etmek mi?)
Anthropic, bu yıl TechCrunch’a sızan bir bağış toplama belgesinin, şirketin günümüzün en güçlü yapay zekasından 10 kat daha yetenekli olacağını iddia ettiği yeni nesil yapay zeka modelini eğitmek için 5 milyar dolar kadar toplamak istediğini öne sürmesinin ardından da eleştiri aldı. sistemler.
Bazıları için, bir AI ezici gücü olma hedefi, Anthropic’in orijinal güvenlik misyonuyla çelişiyordu ve bu, görünüşte bariz iki soruyu gündeme getirdi: Aktif olarak yakıt doldurmaya yardım ettiğiniz bir AI yarışı hakkında alarm vermek ikiyüzlü değil mi? Ve Anthropic, güçlü yapay zeka modelleri konusunda bu kadar endişeliyse, neden onları inşa etmeyi bırakmıyor?
Bir Stanford bilgisayar bilimi profesörü olan Percy Liang, bana “Anthropic’in yapay zeka güvenliğine olan bağlılığını takdir ettiğini” ancak şirketin daha büyük, daha tehlikeli modeller piyasaya sürmek için ticari baskıya kapılacağından endişe ettiğini söyledi.
“Bir geliştirici dil modellerinin gerçekten varoluşsal risk taşıdığına inanıyorsa, bana öyle geliyor ki yapılacak tek sorumlu şey daha gelişmiş dil modelleri oluşturmayı bırakmaktır” dedi.
İlerlemek İçin 3 Argüman
Bu eleştirileri, üç kez çürüten Bay Amodei’ye yönelttim.
İlk olarak, Anthropic’in son teknoloji yapay zeka modelleri oluşturmasının pratik nedenleri olduğunu söyledi – öncelikle, araştırmacılarının bu modellerin güvenlik zorluklarını inceleyebilmesi için.
Tıpkı bir Subaru üzerinde pratik yaparak Formula 1 yarışlarında kazalardan kaçınma hakkında pek bir şey öğrenemeyeceğiniz gibi – onun değil, benim benzetmem – son teknoloji yapay zeka modellerinin gerçekte neler yapabildiğini veya nerede olduklarını anlayamazsınız. güvenlik açıkları, kendiniz güçlü modeller oluşturmadığınız sürece.
Elbette, iyi yapay zeka modelleri yayınlamanın başka faydaları da var. Bunları büyük şirketlere satabilir veya kazançlı abonelik ürünlerine dönüştürebilirsiniz. Ancak Bay Amodei, Anthropic’in OpenAI ve diğer üst düzey laboratuvarlarla rekabet etmek istemesinin ana sebebinin para kazanmak olmadığını savundu. Daha iyi güvenlik araştırması yapmak ve halihazırda milyonlarca insanın kullanmakta olduğu sohbet robotlarının güvenliğini artırmaktır.
“Hiçbir şey göndermezsek, belki de tüm bu güvenlik sorunlarını çözebiliriz” dedi. “Fakat piyasada bulunan, insanların kullandığı modeller aslında güvenli modeller değil. ”
İkincisi, Bay Amodei, AI modellerini daha tehlikeli hale getiren bazı keşiflerin aynı zamanda onları daha güvenli hale getirmeye yardımcı olduğuna dair teknik bir argüman olduğunu söyledi. Örneğin, Anayasal Yapay Zeka ile Claude’a dili yüksek düzeyde anlamayı öğretmek, sistemin kendi kurallarını ihlal ettiğini bilmesine veya daha az güçlü bir modelin izin vermiş olabileceği potansiyel olarak zararlı istekleri kapatmasına da izin verdi.
Yapay zeka güvenlik araştırmasında, araştırmacıların genellikle “tehlike ve tehlikeye yönelik çözümün birbiriyle bağlantılı olduğunu” bulduğunu söyledi.
Ve son olarak, Anthropic’in bir düşünce deneyi şeklinde güçlü yapay zeka sistemleri yaratma kararı için ahlaki bir gerekçe gösterdi.
“Vicdan sahibi herkesin ‘Yapay zeka sistemlerinin oluşturulmasına hiç dahil olmak istemiyorum’ dediğini hayal edin” dedi. “O zaman dahil olacak tek kişi, bu sözü görmezden gelen insanlar olacaktır – onlar, ‘ Sadece ne istersem onu yapacağım.’Bu iyi olmaz.”
Bu doğru olabilir. Ancak bunu diğerlerinden daha az ikna edici buldum, çünkü kısmen “Yapay zekalı bir sohbet robotu olan kötü bir adamı durdurmanın tek yolu, yapay zekalı bir sohbet robotu olan iyi bir adamı durdurmanın tek yolu” gibi geliyor – bu argümanı reddettim. diğer bağlamlar. Ayrıca, yapay zeka yarışı kızışırken ve güvenlik çabaları rekabetçi konumunu zedelemeye başlasa bile Anthropic’in güdülerinin saf kalacağını varsayar.
Anthropic’teki herkes, görev kaymasının bir risk olduğunu açıkça biliyor – şirketin kurucu ortaklarının OpenAI’de olduğunu düşündükleri şey buydu ve ayrılma nedenlerinin büyük bir kısmı buydu. Ancak doğru önlemleri aldıklarından eminler ve nihayetinde güvenlik saplantılarının Silikon Vadisi’nde daha geniş bir alana yayılacağını umuyorlar.
Anthropic’in kurucularından biri olan Ben Mann, “Bir güvenlik yarışı olacağını umuyoruz” dedi. “Farklı şirketlerin ‘Bizim modelimiz en güvenlisi’ gibi olmasını istiyorum. Ve sonra başka bir şirket ‘Hayır, bizimmodel en güvenli olanıdır.’”
Sonunda Biraz İyimserlik
Anthropic’teki öğleden sonralarımdan birinde Bay Mann ile konuştum. O, Google ve OpenAI’de çalışan rahat, Hawaii gömleği giyen bir mühendis ve Anthropic’te tanıştığım en az endişeli kişiydi.
Onunla ilk konuştuğunda Claude’un zekası ve empatisi karşısında “havaya uçtuğunu” ve yapay zeka dil modellerinin nihayetinde zarardan çok fayda sağlayacağını düşündüğünü söyledi.
“Aslında çok endişeli değilim,” dedi. “Bence bu şeylerde ters gidebilecek ve olabilecek her şeyin oldukça farkındayız ve oldukça gurur duyduğum bir ton hafifletme yöntemi geliştirdik.”
İlk başta, Bay Mann’ın sakin iyimserliği sarsıcı ve yersiz görünüyordu – kül rengi çığlık atan yüzler denizinde soğuk bir güneş gözlüğü emojisi. Ancak orada daha fazla zaman geçirdikçe, şirket çalışanlarının çoğunun benzer görüşlere sahip olduğunu gördüm.
Yapay zeka sistemlerinin insani değerlere uymasını sağlama çabası için endüstri terimi olan yapay zeka uyumluluğu daha güçlü yapay zeka sistemleri gelene kadar çözülmezse ne olacağı konusunda saplantılı bir şekilde endişeleniyorlar. Ancak hizalamanın çözülebileceğine de inanıyorlar. Ve yapay zekanın gidişatı hakkındaki en kıyameti andıran tahminleri bile (yüzde 20 yakın kıyamet olasılığı!) iyimserlik tohumları içeriyor (yüzde 80 yakın bir kıyamet olasılığı yok!).
Ve ziyaretimi sonlandırırken şöyle düşünmeye başladım: Aslında, belki teknoloji biraz daha kadercilik kullanabilir. Son nesil start-up kurucuları güvenliğe bu kadar kafayı takmış olsalardı veya araçlarının nasıl olduğu konusunda endişelenerek bu kadar çok zaman harcamış olsalardı, son on yılın kaç probleminden -seçim müdahalesi, yıkıcı algoritmalar, aşırılıkçılık- kaçınılabilirdi? yanlış ellerde tehlikeli silahlara dönüşebilir mi?
Garip bir şekilde, Anthropic’in endişesini güven verici bulmaya başladım, bu Claude’un – kendiniz deneyebilirsiniz – biraz nevrotik olabileceği anlamına gelse bile. AI zaten biraz korkutucu ve daha da korkutucu olacak. Bugün biraz daha fazla korku, yarın bizi çok fazla acıdan kurtarabilir.