2021’in başlarında bir Wikipedia editörü geleceğe baktı ve ufukta huni bulutu gibi görünen bir şey gördü: OpenAI’nin yeni sohbet robotlarının habercisi olan GPT-3’ün yükselişi. Sitede Barkeep49 adıyla anılan üretken bir Vikipedist olan bu editör yeni teknolojiyi denediğinde, bunun güvenilmez olduğunu görebildi. Bot, kurgusal unsurları (sahte bir isim, yanlış bir akademik alıntı) başka türlü olgusal ve tutarlı yanıtlara kolayca karıştırır. Ancak potansiyeli hakkında hiç şüphesi yoktu. Vikipedi’nin kendi başlığı altında yayınladığı bir makale olan “Vikipedi’nin Ölümü”nde, “Yapay zekanın yüksek kaliteli bir ansiklopedi yazma gününün er ya da geç geleceğini düşünüyorum” diye yazdı. Tıpkı Vikipedi’nin 2012’de basılı yayınına son verdiğini duyuran Encyclopaedia Britannica’nın yerini alması gibi, bilgisayarlı bir modelin zamanla çok sevdiği web sitesinin ve onun insan editörlerinin yerini alabileceğini düşündü.
Bu Makaleyi Dinle
Daha fazla sesli gazetecilik ve hikaye anlatımı için, New York Times Audio’yu indirin, haber abonelerinin kullanımına sunulan yeni bir iOS uygulaması.
Geçenlerde bu editöre sorduğumda – Wikipedia editörleri kötüye kullanımın hedefi olabileceği için adını vermememi istedi – hala ansiklopedisinin kaderi hakkında endişeleniyorsa, yeni sürümlerin onu ChatGPT’nin bir tehdit olduğuna daha fazla ikna ettiğini söyledi. . Vikipedi için “Önümüzdeki üç yıl boyunca her şeyin yolunda gitmesi beni şaşırtmaz,” dedi, “ve sonra birdenbire, 4. veya 5. Yılda her şey uçurumdan düşer.”
Wikipedia, Ocak ayında 22. yılını kutladı. Pek çok yönden, açık işbirliği deneylerinin (herkes Vikipedi için yazıp düzenleyebilir) dijital alanı henüz milyarlarca dolarlık şirketlere ve veri madencilerine, reklam entrikacılarına ve sosyal -medya propagandacıları. Wikipedia’nın amacı, kurucu ortağı Jimmy Wales’in 2004’te tanımladığı şekliyle, “gezegendeki her bir kişiye, tüm insan bilgisinin toplamına ücretsiz erişimin verildiği bir dünya” yaratmaktı. Ertesi yıl, Galler ayrıca “İnternetin berbat olmamasına yardımcı oluyoruz” dedi. Wikipedia’nın artık 334 dilde sürümü ve toplamda 61 milyondan fazla makalesi var. Sürekli olarak dünyanın en çok ziyaret edilen 10 web sitesi arasında yer alıyor, ancak bu seçkin grup arasında (her zamanki liderleri Google, YouTube ve Facebook olan) kâr amacından kaçınma konusunda yalnız. Vikipedi, bağış istediği durumlar dışında reklam yayınlamaz ve sitede dakikada yaklaşık 345 düzenleme yapan katkıda bulunanlara ödeme yapılmaz. Kapitalizmin zorunluluklarını reddeder gibi görünen başarısı, şaşırtıcı, hatta gizemli görünebilir. Bazı Vikipedistler, çabalarının pratikte işe yaradığını ancak teoride işe yaramadığını belirtiyor.
Vikipedi artık bir ansiklopedi ya da en azından sadece bir ansiklopedi değil: Son on yılda tüm dijital dünyayı bir arada tutan bir tür olgusal ağ haline geldi. Google ve Bing’deki aramalardan veya Siri ve Alexa’dan aldığımız yanıtlar – “Joe Biden kaç yaşında?” veya “Okyanus dalgıç aracı nedir?” – kısmen Wikipedia’nın bilgi bankalarına alınmış olan verilerinden türemiştir. YouTube, yanlış bilgilere karşı koymak için Wikipedia’dan da yararlandı.
Yeni yapay zeka sohbet botları, genellikle Wikipedia’nın külliyatını da yuttu. Sorgulara verdikleri yanıtların derinliklerinde, katkıda bulunan insanlar tarafından yıllarca süren özenli çalışmalarla derlenen Wikipedia verileri ve Wikipedia metni yer alır. Etkisine ilişkin tahminler değişebilirken, Wikipedia muhtemelen AI modellerinin eğitiminde en önemli tek kaynaktır. Britanya Kolumbiyası’ndaki Simon Fraser Üniversitesi fakültesine bu ay katılacak olan ve Wikipedia’nın Google aramalarını ve diğer bilgi işletmelerini desteklemeye nasıl yardımcı olduğunu inceleyen Nicholas Vincent, “Vikipedi olmasaydı üretken yapay zeka olmazdı” diyor.
Yine de ChatGPT gibi robotlar giderek daha popüler ve sofistike hale geldikçe, Vincent ve bazı meslektaşları, kendisini yamyamlaştıran yapay zeka tarafından kuşatılan Vikipedi’nin kullanılmaması ve terk edilmesi durumunda ne olacağını merak ediyor. Böyle bir gelecekte, bir “Wikipedia’nın Ölümü” sonucu belki de o kadar da zoraki değildir. Bir bilgisayar zekası -Wikipedia kadar iyi olması gerekmeyebilir, sadece yeterince iyi olması gerekir- web’e takılır ve kaynak materyalleri ve haber makalelerini anında özetleme fırsatını yakalar, tıpkı insanların şimdi tartışma ve müzakere ile yaptığı gibi.
Mart ayında, AI’nın Wikipedia’ya yönelik tehditlerinin yanı sıra potansiyel faydalarına odaklanan bir konferans görüşmesinde, editörlerin umutları endişeyle yarıştı. Bazı katılımcılar, üretici yapay zeka araçlarının yakında Wikipedia’nın makalelerini ve küresel erişimini genişletmeye yardımcı olacağından emin görünürken, diğerleri, kullanıcıların Vikipedi’den riskli bir giriş yerine hızlı, akıcı, görünüşte kehanet gibi ChatGPT’yi giderek daha fazla tercih edip etmeyeceği konusunda endişeliydi. Editörler arasındaki ana endişe, Vikipedistlerin kendilerini böylesine tehdit edici bir teknolojik müdahaleciye karşı nasıl savunabilecekleriydi. Ve bazıları, dijital dünyanın kendi kuruluşlarının – özellikle doğruluk ve doğruluk arayışında – hem gerçeklere dayalı olarak güvenilmez hem de kontrol altına alınması zor bir tür istihbarat tarafından tehdit edildiği bir noktaya ulaşıp ulaşmadığından endişe duyuyordu.
Konferans görüşmesinden çıkan bir sonuç yeterince açıktı: Bilginin insanlar tarafından üretildiği bir dünya istiyoruz.Ama bunun için çok mu geç?
2017’de, Wikimedia Vakfı ve gönüllü topluluğu, ansiklopedinin ve onun ücretsiz bilgi ve görseller sunan Wikidata ve Wikimedia Commons gibi kardeş sitelerinin 2030 yılına kadar nasıl gelişebileceğini keşfetmeye başladı. Vikipedi’yi denetleyen, dünyadaki bilgileri sonsuza kadar koruyabilir ve paylaşabilir. Bir yıllık toplantıları içeren bu 2017 çabasının bir sonucu, Wikimedia’nın “özgür bilgi ekosisteminin temel altyapısı” haline geleceğine dair bir tahmindi; Başka bir sonuç da, çevrimiçi yanlış bilgilendirme gibi eğilimlerin yakında çok daha fazla dikkat gerektireceğiydi. Ve vakıf tarafından yaptırılan bir araştırma makalesi, yapay zekanın bilginin “toplanma, bir araya gelme ve sentezlenme” şeklini değiştirebilecek bir hızda geliştiğini ortaya koydu.
Bu nedenle, ChatGPT’nin piyasaya sürülmesi Wikipedia topluluğu içinde sürprizlere yol açmadı – ancak birkaç editör bana, tahmini 100 milyon kullanıcı kazanmak için 2022’nin sonlarında piyasaya sürülmesinden sonra sadece iki ay geçmesi gereken benimsenme hızı karşısında şok olduklarını söyledi. . Sıkıcı görünümüne rağmen, Vikipedi sıradan kullanıcıların varsayabileceğinden daha teknoloji meraklısıdır. Milyonlarca makaleyi denetleyecek küçük bir gönüllü grubuyla birlikte, genellikle yöneticiler olarak bilinen son derece deneyimli editörlerin yazım hatalarını tespit etmek ve kasıtlı olarak yanlış bilgilendirmenin belirli biçimlerini yakalamak için yarı otomatik yazılımlar kullanması uzun zamandır gerekliydi. Ve açık kaynak ahlakı nedeniyle, kuruluş zaman zaman kendi başına uzun ve pahalı bir geliştirme sürecinden geçmek yerine teknoloji şirketleri veya akademisyenler tarafından ücretsiz olarak sunulan teknolojiyi dahil etti. Wikimedia’nın baş teknoloji sorumlusu Selena Deckelmann, “2002’den beri yapay zeka araçlarımız ve botlarımız var ve 2017’den beri makine öğrenimine adanmış bir ekibimiz var” dedi. “Yarı otomatik içerik incelemesi ve özellikle çeviriler için son derece değerliler.”
Bununla birlikte, Wikipedia’nın botları kullanma şekli ve botların Wikipedia’yı kullanma şekli son derece farklıdır. Mühendislerin bu amaçla muazzam veri kümeleri oluşturmak için web’i “kazıdıkları” sürecin bir parçası olarak, acemi yapay zeka sistemlerinin sitenin makaleleri üzerinde eğitildiği yıllardır açıktı. Bu modellerin ilk günlerinde, yaklaşık on yıl önce, Wikipedia makineleri eğitmek için kullanılan kazınmış verilerin büyük bir yüzdesini temsil ediyordu. Ansiklopedi sadece ücretsiz ve erişilebilir olduğu için değil, aynı zamanda gerçeklerin ana damarını içerdiği ve materyalinin büyük bir kısmı tutarlı bir şekilde biçimlendirildiği için çok önemliydi.
Daha yakın yıllarda, Büyük Dil Modelleri veya LLM’ler olarak adlandırılan boyut ve işlevsellik arttıkça – bunlar ChatGPT ve Google’s Bard gibi sohbet robotlarına güç veren modellerdir – çok daha büyük miktarlarda bilgi almaya başladılar. Bazı durumlarda, yemeklerinin toplamı bir trilyondan fazla kelimeye ulaştı. Kaynaklar sadece Wikipedia’yı değil, aynı zamanda Google’ın patent veritabanını, hükümet belgelerini, Reddit’in Q. ve A. külliyatını, çevrimiçi kitaplıklardan kitapları ve web’deki çok sayıda haber makalesini de içeriyordu. Ancak Wikipedia’nın toplam hacim açısından katkısı azalırken – ve teknoloji şirketleri yapay zeka modellerine hangi veri kümelerinin girdiğini açıklamayı bırakmış olsa da – LLM’ler için en büyük tek kaynaklardan biri olmaya devam ediyor Allen Institute’ta bir bilgisayar bilimcisi olan Jesse Dodge Seattle’daki AI, bana Wikipedia’nın artık bir LLM’nin eğitimi için kullandığı kazınmış verilerin yüzde 3 ila 5’ini oluşturabileceğini söyledi. Dodge, “İleriye dönük Vikipedi sonsuza dek çok değerli olacak,” diye belirtiyor, “çünkü bu, iyi düzenlenmiş en büyük veri setlerinden biri.” Bir modelin eğittiği verilerin kalitesi ile yanıtlarının doğruluğu ve tutarlılığı arasında genellikle bir bağlantı olduğunu ekliyor.
Bu açıdan Wikipedia, kurt gibi bir teknoloji pazarının ağzına sıkışmış bir koyun olarak görülebilir. Acı verici derecede iyi niyetle oluşturulmuş ücretsiz bir site (“Bilgiyi paylaşmak doğası gereği bir nezaket eylemidir,” Wikimedia 2017’de stratejik yönüne ayrılmış bir sayfada belirtmişti), OpenAI olarak abonelik ücreti almak gibi hedefleri olan şirketler tarafından yutuluyor. son zamanlarda en son modeli için yapmaya başladı – kendi modeliyle dalga geçmeyin. Ancak ilişkiler göründüğünden daha karmaşıktır. Vikipedi’nin temel amacı, bilgiyi mümkün olduğu kadar geniş ve özgür bir şekilde, her ne şekilde olursa olsun yaymaktır. Yaklaşık 10 yıl önce, site yöneticileri Google’ın Wikipedia’yı nasıl kullandığına odaklandığında, yapay zeka sohbet robotlarının gelişini önceden haber veren bir durumdaydılar. Google’ın arama motoru, sorgu sonuçlarının başında Vikipedistlerin çalışmalarını dünyanın her yerindeki kullanıcılara sunmayı başardı ve ansiklopediye eskisinden çok daha fazla erişim sağladı – bariz bir erdem. 2017’de üç akademik bilgisayar bilimcisi, Connor McMahon, Isaac Johnson ve Brent Hecht, Wikipedia tarafından Google’ın arama sonuçlarına yapılan katkıların yalnızca bir kısmı kaldırılırsa rastgele kullanıcıların nasıl tepki vereceğini test eden bir deney gerçekleştirdi. Akademisyenler “kapsamlı bir karşılıklı bağımlılık” algıladılar: Wikipedia, Google’ı birçok sorgu için “önemli ölçüde daha iyi” bir arama motoru haline getiriyor ve buna karşılık Wikipedia trafiğinin çoğunu Google’dan alıyor.
Google ve Vikipedi’nin içeriğini başka amaçlarla kullanan diğer kişilerle çarpışmanın bir sonucu, iki yıl önce, Wikipedia makalelerine hızlandırılmış güncellemeler sağlayan bir dizi uygulama programlama arayüzüne erişim satan ayrı bir iş birimi olan Wikimedia Enterprise’ın kurulmasıydı. Kime sorduğunuza bağlı olarak, işletme birimi ya teknoloji şirketlerinin büyük hayırsever bağışların eşdeğerini Wikipedia’ya yönlendirmesi için daha resmi bir yol – Google artık abone oluyor ve birim 2022’de toplam 3,1 milyon doları aldı – ya da Wikipedia’nın dijital dünya için yarattığı finansal değerin bir kısmını geri kazanmak ve böylece gelecekteki operasyonlarının finansmanına yardımcı olmak. Pratik olarak, Wikipedia’nın açıklığı herhangi bir teknoloji şirketinin Wikipedia’ya herhangi bir zamanda erişmesine izin verir, ancak API’ler yeni Wikipedia girişlerini neredeyse anında okunabilir hale getirir. Bu, zaten oldukça hızlı olan bir bağlantıyı hızlandırır. Koleksiyonlarıyla ilgili verileri Wikipedia’ya koymak için müzelerle çalışan bir danışman olan Andrew Lih, bana 2019’da Vera Simons adlı öncü bir baloncu hakkında yeni bir Wikipedia makalesinin ortaya çıkmasının ne kadar süreceğini görmek için bir deney yaptığını söyledi. Google Arama sonuçlarında. Geçen sürenin yaklaşık 15 dakika olduğunu buldu.
Yine de, arama motorları ve Wikipedia arasındaki yakın ilişki, ikincisi için bazı varoluşsal soruları gündeme getirdi. Google’a “Rusya-Ukrayna Savaşı nedir?” ve Wikipedia, materyallerinin bir kısmı kısaca özetlenerek kredilendirildi. Ancak bu, Wikipedia’nın yaklaşık 10.000 kelimelik ve 400’den fazla dipnot içeren makalesini ziyaret etme olasılığınızı azaltırsa ne olur? Bazı Vikipedi editörlerinin bakış açısına göre, azalan trafik dünyayı anlamamızı aşırı derecede basitleştirecek ve yeni nesil katkıda bulunanları işe almayı zorlaştıracaktır. Ayrıca daha az bağış anlamına da gelebilir. 2017 tarihli makalede araştırmacılar, Wikipedia’ya yapılan ziyaretlerin gerçekten de azalmaya başladığını belirtti. Ve tespit ettikleri fenomen “yeniden kullanım paradoksu” olarak bilinmeye başlandı: Wikipedia’nın makaleleri diğer mecralar ve medya aracılığıyla ne kadar çok yayılırsa, Wikipedia’nın kendi sağlığı o kadar tehlikeye girdi.
AI ile, bu yeniden kullanım sorunu çok daha yaygın hale gelme tehdidinde bulunuyor. Birkaç yıldır Wikimedia Foundation’da makine öğrenimi araştırma ekibini yöneten (ve şu anda Microsoft için çalışan) Aaron Halfaker, arama motoru özetlerinin en azından kullanıcılara bağlantılar ve alıntılar ve Wikipedia’ya geri dönmenin bir yolunu sunduğunu söyledi. Büyük dil modellerinden gelen yanıtlar, kolay giden ancak gizemli içerikler içeren bir bilgi smoothie’sine benzeyebilir. “Yanıt üretme yeteneği temelden değişti” diyor ve bir ChatGPT yanıtında “bu bilginin nereden geldiğine dair literatürde tam anlamıyla hiçbir alıntı ve temel bulunmadığını” belirtiyor. Bunu Google veya Bing arama motorlarıyla karşılaştırıyor: “Bu farklı. Bu, daha önce sahip olduklarımızdan çok daha güçlü.”
Neredeyse kesinlikle, bu, AI’yı en azından Wikipedia’nın bakış açısından hem mücadele etmeyi daha zor hem de potansiyel olarak daha zararlı hale getiriyor. Yapay zeka endüstrisinde çalışan (ancak çalışmaları hakkında kamuya açık konuşmasına izin verilmeyen) bir bilgisayar bilimcisi bana, bu teknolojilerin eğitim için bağımlı oldukları içeriği yok etmekle tehdit eden son derece kendi kendini yok ettiğini söyledi. Sadece teknoloji endüstrisinden bazıları da dahil olmak üzere pek çok insan sonuçların henüz farkına varmadı.
Kredi… Erik Carter’ın illüstrasyonu
Wikipedia’nın en sadık destekçiler, pek çok kusuru olduğunu kolayca kabul edeceklerdir. Wikimedia Vakfı, İngilizce sitesinde yaklaşık 40.000 aktif editör olduğunu tahmin ediyor – bu, ansiklopedide ayda en az beş düzenleme yaptıkları anlamına geliyor. Wikimedia Vakfı’nın son verilerine göre, bu grubun yaklaşık yüzde 80’i erkek ve Amerika Birleşik Devletleri’ndekilerin yaklaşık yüzde 75’i beyaz, bu da Wikipedia’nın kapsamında bazı cinsiyet ve ırksal boşluklara yol açtı. Ve güvenilirlikle ilgili kalıcı şüpheler devam ediyor. Georgia Institute of Technology’de profesör olan Amy Bruckman, binlerce kişinin katkıda bulunabileceği popüler bir makale için, “Wikipedia, kelimenin tam anlamıyla, insanlar tarafından şimdiye kadar oluşturulmuş en doğru bilgi biçimidir” dedi. Ancak Wikipedia’nın kısa makaleleri bazen isabet alabilir veya gözden kaçabilir. Son zamanlarda yayınlanan “Wikipedia’ya İnanmalı Mısınız?” kitabının yazarı Bruckman, “Tam bir çöp olabilirler” diyor. Nadiren ziyaret edilen bir sayfadaki hatalı bir gerçek, aylarca veya yıllarca sürebilir. Ve her zaman var olan vandalizm veya bir makaleyi kurcalama tehdidi var olmaya devam ediyor. Örneğin 2017’de, Meclis Başkanı Paul Ryan’ın bir fotoğrafı omurgasızlarla ilgili girişe eklendi. İlk adı Jade olan bir Wikipedia editörünün bana söylediği gibi: “Spam oluşturmaya, vandalizm yaratmaya, insanları taciz etmeye neredeyse benim ayırdığım kadar zaman ayırması gereken bir dizi neredeyse profesyonel trolümüz var diyebilirim.” Vikipedi’yi geliştirmek için.”
Bazı akademisyenler bana, Wikipedia’nın eksiklikleri ne olursa olsun, ansiklopediyi bir “ortak görüş birliği gerçeği” olarak gördüklerini söyledi: İçlerinden birinin ifadesiyle: Gerçeklerin giderek daha fazla tartışıldığı bir toplumda bir gerçeklik kontrolü işlevi görür. Bu gerçek, veri noktaları hakkında daha az – “Joe Biden kaç yaşında?” – gerçeklerin sürekli geliştiği, sıklıkla çarpıtıldığı ve hararetle tartışıldığı Covid-19 salgını gibi karmaşık olaylar hakkında. Doğruluk katsayısı, Wikipedia’nın şeffaflığı sayesinde yükselir. Wikipedia girişlerinin çoğu dipnotlar, kaynak materyallere bağlantılar ve önceki düzenlemelerin ve editörlerin listelerini içerir – ve deneyimli editörler, bir makale eksik göründüğünde veya Vikipedistlerin “doğrulanabilirlik” dediği şeyden yoksun olduğunda müdahale etmeye isteklidir. Dahası, Vikipedi yönergeleri, editörlerinin bir “NPOV” – tarafsız bir bakış açısı – sürdürmeleri veya reddedilme (veya wiki kültürünün argotunda “geri alınma”) riskini alma konusunda ısrar ediyor. Ve sitenin kendi kendini inceleme eğilimi var. Wikipedia’da, Wikipedia’nın kendi güvenilirliğini araştıran uzun incelemeler bulabilirsiniz. Wikipedia’nın aldatmacalara nasıl kurban gittiğine dair bir giriş, 60’tan fazla basılı sayfaya kadar uzanıyor.
Gerçeğin peşinde koşmak Vikipedistler için ne kadar zor olsa da yapay zeka sohbet robotları için çok daha zor görünüyor. ChatGPT, “halüsinasyonlar” olarak bilinen kurgusal veri noktaları veya yanlış alıntılar oluşturmasıyla kötü bir üne kavuşmuştur; belki de daha sinsi olanı, örneğin Ukrayna-Rusya savaşının kökenleri gibi, robotların karmaşık sorunları aşırı basitleştirme eğilimidir. Tıbbi teşhis ve tedavilerle ilgili makaleleri yoğun bir şekilde ziyaret edilen Wikipedia’daki üretici yapay zeka hakkında bir endişe, sağlık bilgileriyle ilgilidir. Mart konferans görüşmesinin bir özeti konuyu özetliyor: “Bu teknolojinin ellerine insanların hayatlarını koyuyoruz – örneğin, insanlar bu teknolojiden tıbbi tavsiye isteyebilir, bu yanlış olabilir ve insanlar ölecektir.”
Bu anlayış yalnızca sohbet robotlarını değil, yapay zeka teknolojilerine bağlı yeni arama motorlarını da kapsıyor. Nisan ayında Stanford Üniversitesi bilim adamlarından oluşan bir ekip, yapay zeka tarafından desteklenen dört motoru (Bing Chat, NeevaAI, perplexity.ai ve YouChat) değerlendirdi ve arama motorları tarafından bir sorguya yanıt olarak oluşturulan cümlelerin yalnızca yarısının tam olarak desteklenebileceğini buldu. olgusal alıntılarla. Araştırmacılar, “özellikle güvenilirlik görünümleri göz önüne alındığında, bu sonuçların bilgi arayan kullanıcılar için birincil araç olarak hizmet edebilecek sistemler için endişe verici derecede düşük olduğuna inanıyoruz.”
Doğruluk hedefini sohbet robotları için bu kadar can sıkıcı yapan şey, bir cümledeki bir sonraki kelimeyi seçerken olasılıksal olarak çalışmalarıdır; karanlık bir dünyada gerçeğin ışığını bulmaya çalışmıyorlar. Jesse Dodge, “Bu modeller, kulağa bir kişinin söyleyeceği şeye benzeyen metinler oluşturmak için oluşturuldu – kilit nokta bu,” diyor. “Yani kesinlikle doğruyu söylemek için inşa edilmediler.” Google’da yapay zeka etiği üzerine çalışan bir bilgisayar bilimcisi olan Margaret Mitchell’e, işin yönünü eleştirdikten sonra şirketten kovulduğunu söyleyen AI Mitchell için olgusallığın daha temel bir öncelik olup olmadığını sordum (Google, şirketin güvenlik politikalarını ihlal ettiği için kovuldu), çoğu kişinin bunu mantıklı bulacağını söyledi. “Şu sağduyulu şey – ‘Eğer onu gerçeklere dayalı uygulamalar için öne sürüyorsak, onu gerçeğe dönüştürmek için çalışmamız gerekmez mi?’ — yani, bence teknolojiyle ilgilenmeyen çoğu insan için ‘Bu neden bir soru?’ güvenilirlik yerine yapay zeka ürünlerini tanıtmak.
Önümüzdeki yol neredeyse kesinlikle iyileştirmelere yol açacaktır. Mitchell, yapay zeka şirketlerinin daha iyi veriler kullanarak doğrulukta kazanç elde edeceğini ve önyargılı yanıtları azaltacağını öngördüğünü söyledi. “Şimdiye kadarki en son teknoloji, sadece bırakınız yapsınlar veri yaklaşımı olmuştur” dedi. “Her şeyi bir kenara atıyorsunuz ve ne kadar çok veriye sahip olursanız sisteminizin o kadar doğru olacağı, sahip olduğunuz verilerin kalitesi ne kadar yüksekse sisteminizin o kadar doğru olacağı bir zihniyetle çalışıyorsunuz. ” Jesse Dodge, “geri alma” olarak bilinen bir fikre işaret ediyor; burada bir sohbet robotu, bir yanıtı gerçek zamanlı olarak doğrulamak için esasen web’deki yüksek kaliteli bir kaynağa danışacaktır. Hatta bazı yapay zeka destekli arama motorlarının şimdi yaptığı gibi kesin bağlantılardan alıntı yapacaktı. “Geri alma unsuru olmadan,” diyor Dodge, “halüsinasyon sorununu çözmenin bir yolu olduğunu sanmıyorum.” Aksi takdirde, bir chatbot yanıtının Wikipedia veya Encyclopaedia Britannica ile olgusal eşitlik kazanabileceğinden şüphe duyduğunu söylüyor.
Pazar rekabeti de hızlı iyileştirmeye yardımcı olabilir. Kaliforniya, Berkeley’de kâr amacı gütmeyen bir kuruluşta yapay zeka sistemlerinde doğruluk üzerine çalışan bir araştırmacı olan Owain Evans, bana OpenAI’nin artık işletmelerle birkaç ortaklığı olduğunu ve bu firmaların yanıtların yüksek bir doğruluk düzeyine ulaşmasını büyük ölçüde önemseyeceklerini belirtti. Bu arada Google, hastalık tespiti ve teşhisi konusunda tıp uzmanlarıyla yakın çalışmak için yapay zeka sistemleri geliştiriyor. “Orada çok yüksek bir çıta olacak” diye ekliyor, “bu yüzden şirketlerin bunu gerçekten iyileştirmesi için teşvikler olduğunu düşünüyorum.”
Yapay zeka şirketleri en azından şimdilik, gerçekliğe gelince “ince ayar” dedikleri şeye odaklanıyorlar. ChatGPT’yi oluşturan şirket olan OpenAI’de araştırmacı olan Sandhini Agarwal ve Girish Sastry, yeni yapay zeka modelleri olan GPT-4’ün “gerçek içerik” olarak adlandırdıkları konuda önceki modellere göre önemli gelişmeler kaydettiğini söylediler. Bu ilerlemeler, yapay zeka modellerinin iyi ve kötü yanıtları ayırt etmesine yardımcı olmak için “insan geri bildirimiyle pekiştirmeli öğrenme” olarak bilinen bir süreçten kaynaklanmaktadır. Ancak ChatGPT’nin hem halüsinasyonları düzeltmek hem de tarihsel sorulara karmaşık, çok katmanlı ve doğru yanıtlar sağlamak için kat etmesi gereken bir yol olduğu açıktır. Agarwal’a OpenAI sistemlerinin tamamen doğru olup olamayacağını veya 400 dipnot sunup sunamayacağını sorduğumda, bunun mümkün olduğunu söyledi. Ancak bir modelin gerçeklere dayalı olma hırsı ile yaratıcı ve akıcı olma çabaları arasında her zaman bir gerilim olabilir. Bir yapay zeka geliştiricisi olarak, amacının bir sohbet modelinin üzerinde eğitilmiş olduğu verileri “yeniden canlandırması” olmadığını açıkladı. Bunun yerine, kullanıcılarla ilişkilendirebileceği bilgi kalıplarını taze, konuşma dilinde görmekti.
Sastry, gelecekte yapay zeka sistemlerinin bir sorgunun kesin olgusal bir yanıt mı yoksa daha yaratıcı bir şey mi gerektirdiğini yorumlayabileceğini ekledi. Başka bir deyişle, alıntılar ve ayrıntılı nitelikler içeren bir analitik rapor istiyorsanız, yapay zeka bunu sunması gerektiğini bilir. Ve eğer Donald Trump’ın iddianamesi hakkında bir sone istiyorsanız, bunun yerine onu kesebilir.
Haziran sonunda, Wikimedia Foundation’ın ChatGPT için oluşturduğu bir eklentiyi denemeye başladım. O zamanlar, bu yazılım aracı birkaç düzine Wikipedia editörü ve vakıf personeli tarafından test ediliyordu, ancak ChatGPT sorgularına artırılmış yanıtlar isteyen aboneler için Temmuz ortasında OpenAI web sitesinde kullanıma sunuldu. Etki, Jesse Dodge’un doğru cevaplar üretmek için gerekli olabileceğini tahmin ettiği “geri alma” sürecine benzer. GPT-4’ün bilgi tabanı şu anda Eylül 2021’deki eğitim süresinin sonuna kadar aldığı verilerle sınırlıdır. Bir Wikipedia eklentisi, botun bugüne kadarki olaylarla ilgili bilgilere erişmesine yardımcı olur. En azından teoride, araç – bir sohbet robotu sorgusunu yanıtlayan Wikipedia makaleleri için bir aramayı yönlendiren kod satırları – kullanıcılara gelişmiş, birleştirici bir deneyim sunuyor: bir AI sohbet robotunun akıcılığı ve dil becerileri, Wikipedia’nın gerçekleri ve geçerliliği ile birleştirildi .
Bir öğleden sonra, Wikimedia Vakfı’nda makine öğreniminden sorumlu olan Chris Albon, beni hızlı bir eğitim seansına götürdü. Albon, ChatGPT’ye OceanGate şirketi tarafından işletilen ve Titanik’in enkazını ziyaret etme girişimi sırasında nerede olduğu hala bilinmeyen Titan denizaltısını sordu. Albon, “Normalde ‘Bilgi kesintim 2021’den’ gibi bir yanıt alırsınız” dedi. Ancak bu durumda ChatGPT, Albon’un sorusuna cevap veremeyeceğini fark ederek — OceanGate’in denizaltısına ne oldu? — eklentiyi Wikipedia’da (ve yalnızca Wikipedia’da) soruyla ilgili metin aramaya yönlendirdi. Eklenti, ilgili Wikipedia makalelerini bulduktan sonra bunları bot’a gönderdi, o da bunları okudu ve özetledi, ardından yanıtını tükürdü. Yalnızca küçük bir gecikmeyle yanıtlar geri geldiğinde, eklentinin kullanılmasının ChatGPT’yi her zaman Wikipedia girişlerine bağlantılar içeren bir not eklemeye zorladığı ve bilgilerinin “tarafından yapılan” Wikipedia’dan türetildiğini söylediği açıktı. gönüllüler.” Ve şu: “Geniş bir dil modeli olarak Wikipedia’yı doğru bir şekilde özetlememiş olabilirim.”
Ancak denizaltıyla ilgili özet, beni okunabilir, iyi desteklenmiş ve güncel olarak etkiledi – ya gerçekleri karıştıran ya da internete gerçek zamanlı erişimden yoksun olan bir ChatGPT yanıtından büyük bir gelişme. Albon bana şöyle dedi: “Bu, ‘Vikipedi’nin web sitesinin dışında var olması neye benziyor’ fikriyle bir tür deney yapmamızın bir yolu, böylece aslında Wikipedia’da bulunmadan Wikipedia’yla gerçekten ilgilenebilirsiniz. com. İleride, eklentinin şu anda olduğu gibi, onu etkinleştirmek isteyen kullanıcılar tarafından kullanılabilir olmaya devam edeceğini, ancak “sonunda, her zaman açık olan belirli bir eklenti seti olduğunu” söyledi. ”
Başka bir deyişle, herhangi bir ChatGPT sorgusunun otomatik olarak sohbet robotlarının Wikipedia ile gerçekleri kontrol etmesi ve yararlı makalelerden alıntı yapmasıyla sonuçlanacağını umuyordu. Böyle bir süreç muhtemelen birçok halüsinasyonu da engelleyecektir: Örneğin, sohbet robotları bir sorunun nasıl ifade edildiğine göre aldatılabileceğinden, yanlış öncüller bazen yanlış cevaplar doğurabilir. Ya da Albon’un dediği gibi, “‘Ay’a ilk iniş sırasında, aya ayak basan beş kişi kimdi?’ chatbot size beş isim vermek istiyor.” Ancak 1969’da aya sadece iki kişi ayak bastı. Wikipedia, Buzz Aldrin ve Neil Armstrong adlı iki adı sunarak yardımcı olacaktır; ve chatbot çelişkili kalırsa, cevabı bilmediğini söyleyebilir ve makaleye bağlantı verebilir.
Eklenti, ChatGPT’nin yaratıcı olmasına izin verir, ancak bunu sınırlı yollarla yapar. Ertesi hafta, OceanGate dalgıçıyla ilgili güncellemeleri sorduğumda, beş yolcunun ölümü de dahil olmak üzere trajedinin nasıl geliştiğine dair üç paragraflık bir özet aldım. Sonra cevabını beş madde halinde formüle etmesini istedim, o da bunu anında yaptı. Daha sonra, 7 veya 8 yaşındaki bir çocuğun anlayabilmesi için bu beş maddeyi uyarlayabilir mi diye sordum. ChatGPT anında “İşte daha basit bir versiyon,” dedi ve tam da benim istediğim şeyi teklif etti ve Titan’ın “özel bir su altı aracı” olduğunu ve patlamasının “üzücü bir olay” olduğunu belirtti.
Mükemmel değildi. ChatGPT’ye, OceanGate’in genel müdürü Stockton Rush’ın güvenlik standartlarını göz ardı ettiği için nasıl eleştirildiğini gözden kaçırdığını söyledim. “Geçerli bir noktaya değindin,” diye cevap verdi. “İşte endişenizi gideren gözden geçirilmiş bir sürüm.” Düzeltilmesi yalnızca birkaç saniye sürdü.
Vikipedi topluluğu içinde, yapay zekanın doğru yönetildiği takdirde kuruluşun çökmesinden ziyade gelişmesine yardımcı olacağına dair temkinli bir umut duygusu var. Baş teknoloji sorumlusu Selena Deckelmann, bu bakış açısını en iyimser şekilde ifade ediyor. “22 yılı aşkın bir süredir kanıtladığımız şey şu: Sürdürülebilir bir gönüllü modelimiz var” dedi bana. “Bunun için bazı tehditler olduğunu söyleyebilirim. Aşılmaz bir tehdit mi? Öyle düşünmüyorum.” “Wikipedia’nın Ölümü”nü yazan uzun süreli Wikipedia editörü bana, daha uzun vadeli çok daha az kesin görünse bile, önümüzdeki yıllarda iyi bir sonuç için yapılması gereken bir durum olduğunu hissettiğini söyledi. Wikimedia eklentisi, geleceğini korumaya yönelik ilk önemli adımdır. AI’daki son gelişmeleri dahili olarak kullanmak için projeler de çalışıyor. Albon, kendisinin ve meslektaşlarının, Wikipedia’nın editörlerinin çalışmaları için kullanabilmeleri için “rafta” olan yapay zeka modellerini – esasen araştırmacılar tarafından herkesin özgürce özelleştirmesi için kullanıma sunulmuş modeller – uyarlama sürecinde olduklarını söylüyor. Odak noktalarından biri, AI modellerinin yeni gönüllülere, örneğin yeni makaleler üzerinde çalışmaya başladıklarında adım adım sohbet robotu talimatlarıyla yardım etmesini sağlamaktır; bu, birçok kural ve protokolü içeren ve genellikle Wikipedia’ya yeni gelenleri yabancılaştıran bir süreçtir.
Wikimedia Vakfı’nın araştırma başkanı Leila Zia, ekibinin de benzer şekilde, örneğin yeni bir makalenin veya düzenlemenin geçersiz kılınıp reddedilmeyeceğini tahmin ederek ansiklopediye yardımcı olabilecek araçlar üzerinde çalıştığını söyledi. Veya, dedi, belki de bir katkıda bulunan kişi “alıntıları nasıl kullanacağını bilmiyor” – bu durumda, başka bir araç bunu belirtirdi. Vikipedi maddelerinin yazarken tarafsız bir bakış açısını korumalarına yardımcı olup olmayacağını sordum. “Kesinlikle,” diyor.
Şu an için, Wikipedia topluluğu kuralları ve politikayı tartışırken, İngilizce Vikipedi’de tamamen LLM’ler tarafından yazılan makale gönderimleri büyük ölçüde önerilmez. Yine de, AI ile ilgili bir tür John Henry sorunu var. Sohbet robotları, insan meslektaşlarının aksine, dili buharla çalışan bir makine gibi 7/24 yayma konusunda müthiş bir yeteneğe sahipler. Chris Albon, “İnternetin her yerini pislikle dolduracağından şüpheleniyorum” dedi. Yapay zeka modellerinin insanların yazma stillerini taklit etmede daha iyi hale gelmesiyle birlikte, chatbot tarafından yazılan gönderileri tespit etmek giderek daha zor olabilir. İlk adı Theo olan bir Vikipedi editörü, Haziran ayı başlarında bana, Yunanistan’daki Doxa Gölü hakkında bir makale de dahil olmak üzere, AI tarafından formüle edilen şüpheli alıntıları içeren bir düzenleme barajını nasıl savuşturduğunu göstermek için bana bağlantılar gönderdi.
Çoğu zaman, Theo ve diğer Vikipedistlerin, zaten sınırları zorlanmış olan yeni içerik ve alıntıları inceleme konusundaki insani yeteneklerinin, yakında yapay zeka tarafından oluşturulan bir metin çığıyla boğulacağından endişe duydukları hissine kapıldım. Elbette, kendileri yapay zeka olan yeni araçlar yardımcı olacaktır. Ancak editörler kısa vadede kazansa bile, merak etmeliydiniz: Sonunda makineler kazanmayacak mıydı?
Üç yıl önce, Northeastern Üniversitesi’nde profesör olan Joseph Reagle, Wikipedia’nın 20. yıl dönümü beklentisiyle, sitenin ölümünün nasıl tekrar tekrar tahmin edildiğini araştıran tarihi bir makale yazdı. Wikipedia yine de uyum sağlamanın ve dayanmanın yollarını bulmuştur. Reagle, yapay zeka hakkındaki son tartışmaların ona Vikipedi’nin kalitesinin diğer ansiklopedilerle kıyaslandığında kötüleyici bir şekilde olduğu ilk günlerini hatırlattığını söyledi. “Bilgi ve bilgi, kalite, otorite ve meşruiyet hakkındaki bu daha büyük kültür savaşında bir vekil görevi gördü. Bu yüzden, gelişecek olan ChatGPT hakkında düşünmeye benzer bir model alıyorum. Tıpkı Wikipedia’nın mükemmel olmadığı gibi, onun mükemmel değil – asla mükemmel olmayacak – ama orada bulunan diğer bilgiler göz önüne alındığında göreceli değer nedir? Gördüğü şekliyle gelecek, ChatGPT’den Wikipedia’ya, Reddit’ten TikTok’a kadar her şey dahil olmak üzere bir dizi bilgi seçeneği olacaktı. Bu arada özel bir eklenti, sohbet robotlarının sağlık, hava durumu veya tarih gibi sorulara verdiği yanıtları iyileştirebilir.
Şu anda yapay zekaya karşı bahse girmek alışılmışın dışına çıkıyor Yeni teknolojilere milyarlarca bahse giren ve eksikliklerinden veya risklerinden büyük ölçüde yılmayan büyük teknoloji şirketleri, ellerinden geldiğince hızlı ilerlemeye kararlı görünüyor. Bu dinamikler, Wikipedia gibi kuruluşların, AI üzerinde etkide bulunmak veya ona karşı etkili bir direniş geliştirmek yerine, AI’nın yaratmaya başladığı geleceğe uyum sağlamaya zorlanacağını gösteriyor. Yine de konuştuğum birçok Vikipedist ve akademisyen böyle bir varsayımı sorguluyor. Sohbet robotları ne kadar etkileyici olursa olsun, yapay zekanın başarıya giden görünürdeki süzülme yolu yakında bir dizi engelle karşılaşabilir.
Bunlar toplumsal olabileceği gibi teknik de olabilir. Avrupa Birliği Parlamentosu şu anda, diğer şeylerin yanı sıra teknoloji şirketlerini yapay zeka tarafından oluşturulan içeriği etiketlemeye ve yapay zeka eğitim verileri hakkında daha fazla bilgi ifşa etmeye zorlayacak yeni bir düzenleyici çerçeve düşünüyor. Kongre bu arada AI’yı düzenlemek için birkaç yasa tasarısını değerlendiriyor Yasal inceleme de gelebilir. Yakından izlenen bir davada, Stability AI, Getty Images’den alınan resimleri izinsiz kullanmaktan dolayı sorgulanıyor; California’daki bir toplu dava, OpenAI’yi milyonlarca insanın internetten kazınmış kişisel verilerini çalmakla suçluyor. Vikipedi’nin lisanslama politikası, herkesin bilgisine ve metnine dokunmasına – onu nasıl isterse “yeniden kullanmasına ve yeniden düzenlemesine” izin verse de, bunun birkaç koşulu vardır. Bunlar, kullanıcıların “benzer şekilde paylaşması” gerekliliklerini içerir, yani bir şey yaptıkları herhangi bir bilgi daha sonra hazır hale getirilmelidir ve kullanıcılar Wikipedia’ya katkıda bulunanlara atıfta bulunmalıdır. Açık kaynak yazılım topluluğundan iki kişi bana, Wikipedia’nın külliyatını, kaynakları açıklamadan sorgulara yanıt veren bir sohbet robotu modelinde karıştırmanın Wikipedia’nın kullanım şartlarını ihlal edebileceğini söyledi. Bazı yasal başvuruların olup olmadığı artık Wikimedia topluluğu içinde bir konuşma konusudur.
Veri sağlayıcılar başka tür kaldıraçlar da kullanabilirler. Nisan ayında Reddit, külliyatını büyük teknoloji şirketleri tarafından tazminat ödemeden hurdaya çıkarmayacağını duyurdu. Wikimedia Vakfı’nın aynı hükmü yayınlayıp sitelerini kapatması pek olası görünmüyor – Nicholas Vincent’ın “veri grevi” olarak adlandırdığı bir eylem – çünkü hizmet şartları daha açık. Ancak vakıf, adalet adına argümanlar ileri sürebilir ve tıpkı Google’ın şu anda yaptığı gibi firmalara kendi API’si için ödeme yapma çağrısında bulunabilir. Selena Deckelmann’ın vakfın çeşitli firmalarla tartıştığını söylediği gibi, sohbet robotlarının Wikipedia’ya belirgin bir atıf vermesi ve yanıtlarında alıntılar yapması konusunda daha fazla ısrar edebilir. Vincent, yapay zeka şirketlerinin bireysel yüklenicilerle küresel bir ansiklopedi oluşturmaya çalışmanın çılgınlık olacağını söylüyor. Bunun yerine bana, “Burada Wikipedia’nın ‘Hey, senin için ne kadar önemli olduğumuza bir bak’ dediği bir ara aşama olabilir” dedi.
Böyle bir rica, chatbotların bizden yapıldığının da etkili bir hatırlatıcısı olabilir. Büyüyen milyonlarca Vikipedi sayfasını sindirmeden veya Reddit’te “The Bear”daki olay örgüsüyle ilgili tartışmaları süpürmeden, yeni LLM’ler yeterince eğitilemez. Aslında, teknoloji topluluğunda konuştuğum hiç kimse, Wikipedia olmadan iyi bir yapay zeka modeli oluşturmanın mümkün olup olmayacağını bile bilmiyor gibiydi.
Teknoloji şirketlerinin karşılıklı bağımlılık dünyasında var olduklarını anlamaları için ailede bir ölümün eşdeğerini gerektirebilir. Yapay zeka endüstrisinde çalışan bilgisayar bilimcisine göre, bazı teknoloji uzmanları, yeni yapay zekaların, modellerin kodlama sorularını yanıtlamak için eğitildiği popüler bir platform olan Stack Overflow adlı programcılar için bir web sitesinin sağlığını tehlikeye attığından endişe ediyor. Sorunun iki farklı yönü var gibi görünüyor. Kodlama sorgusu olanlar yardım için ChatGPT’ye gidebiliyorsa, neden Stack Overflow’a gitmeli? Bu arada, cevaplar için Stack Overflow’a başvuran daha az kişi varsa, neden orada yararlı öneriler veya içgörüler göndermeye devam edesiniz?
Bunun gibi çatışmalar AI’nın ilerlemesini engellemese bile, başka şekillerde engellenebilir. Mayıs ayının sonunda, birkaç AI araştırmacısı, yeni AI sistemlerinin insan tarafından oluşturulan veritabanları yerine mevcut AI modelleri tarafından üretilen bilgilerden geliştirilip geliştirilemeyeceğini inceleyen bir makale üzerinde işbirliği yaptı. Sistemik bir arıza keşfettiler – “model çöküşü” adını verdikleri bir başarısızlık. Yazarlar, yapay zekanın yeni sürümlerini eğitmek için bir yapay zekadan alınan verilerin kullanılmasının kaosa yol açtığını gördüler. Yazdıklarına göre, sentetik veriler “gelecek nesil modellerin eğitim setini kirletiyor; kirli verilerle eğitildiklerinden, gerçeği yanlış algılıyorlar.”
Buradaki ders, eski modellerden yeni modeller oluşturmanın zor olacağıdır. Oxford Üniversitesi araştırmacısı ve makalenin başyazarı olan Ilia Shumailov, chatbot’larla ilgili olarak aşağı yönlü sarmalın benzer göründüğünü söyledi. Üzerinde çalışılacak insan verileri olmadığında Shumailov, “Dil modeliniz ondan çözmesini istediğiniz şeyden tamamen habersiz olmaya başlıyor ve sanki çılgın bir moda girmiş gibi, istediği şey hakkında daireler çizerek konuşmaya başlıyor” dedi. Diyelim ki Wikipedia’dan bir eklenti bu sorunu çözmez mi, diye sordum. Olabilir, dedi Shumailov. Ancak gelecekte Vikipedi, yapay zeka tarafından üretilen makalelerle tıkanırsa, aynı döngü – esasen bilgisayar kendi yarattığı içerikle beslenir – devam ettirilecektir.
Nihayetinde çalışma, “gerçek insan etkileşimlerinden” elde edilen verilerin değerinin gelecekteki LLM’ler için giderek daha değerli olacağı sonucuna vardı. bu arada, onları dürüst ve çalışır durumda ve bize bağımlı halde tutmak için. Bir AI sisteminin insanlığın çıkarlarına en uygun olanı yaptığından emin olmak, hizalama olarak bilinen teorik bir kavramı içerir. Hizalama, yapay zeka için hem muazzam bir zorluk hem de muazzam bir öncelik olarak görülüyor çünkü insanlarla senkronize olmayan bir sistem korkunç hasara neden olabilir. Yapay zeka, çoğunlukla güvenilir bir ücretsiz bilgi sistemini mahveder veya tehlikeye atarsa, bunun bizim çıkarlarımıza ne kadar uygun olduğunu görmek zordur. Aaron Halfaker, “Özetlemeyi insanlara yaptırmanın gerçekten güzel yanlarından biri, varsayılan olarak bir tür temel hizalama düzeyi elde etmenizdir,” dedi. “Ve Vikipedi editörlerinin insan olduğunu, insani motivasyonları ve kaygıları olduğunu ve motivasyonlarının ihtiyaçlarınıza uygun yüksek kaliteli eğitim materyali sağlamak olduğunu takdir ediyorsanız, o zaman esasen sisteme güvenebilirsiniz.”
Hayatlarını bu fikre adamış insanlarla konuştuğunuzda uyum argümanını daha iyi kavrayabilirsiniz. Kredisinde 24.000’den fazla düzenleme bulunan Jade’e boş zamanını – genellikle haftada 10 ila 20 saat – neden Vikipedi’yi düzenleyerek geçirdiğini sorduğumda, bilgi paylaşımına inandığını söyledi. “Ayrıca, ben sadece koca bir ineğim,” dedi. Akşam geç saatlerde Zoom üzerinden konuşuyorduk ve ChatGPT ile yaptığım diğer uzun diyalog akşamlarına çok az benzeyen bir sohbetti. Jade’in çalışmalarından bazıları, son 12 ayda yaklaşık 21.000 sayfa görüntüleme alan kırmızı sinekkapan üzerine yazdığı bir yazı gibi, doğaya ve kuşlara olan kişisel ilgilerinden bahsediyordu. Ayrıca, aynı dönemde 4,84 milyon kez izlenen Amerikan İç Savaşı hakkındaki Wikipedia girişi üzerinde düzenli olarak çalıştığını söyledi. Amacı, bu İç Savaş makalesinde eksiksizlik ve daha fazla doğruluk için çalışmaya devam etmek ve böylece makalenin Wikipedia’da “öne çıkan” statüsüne ulaşmasıydı; bu, bir makalenin kalitesinin Vikipedi editörleri tarafından yaklaşık olarak ödüllendirilen nadir bir takdiridir (genellikle bir yıldızla işaretlenir). İngilizce girişlerin yüzde 0,1’i. Jade, “Geçmişteki hesaplamalarım, bilirsiniz, çalışmalarımı bir yılda 10 milyondan fazla insan okudu,” dedi, “bu yüzden insanların tüm bunları okuması benim için bir onur.
Wikipedia makaleleri oluşturmak için yapay zeka kullanmanın etiği hakkında “Süreçler oluşturmamız gerekecek, zorlu konuşmalar yapmamız gerekecek” dedi. Ona sohbet robotlarının yakında gönüllü çalışma fırsatlarını ortadan kaldırıp kaldıramayacağını sorduğumda, “Hiçbir zaman – belki asla değil, ama kesinlikle bu yüzyılda robotların Wikipedia’da tamamen insanların yerini aldığını görmüyorum” diye yanıtladı.
kadar emin değildim. Bir chatbot konuşmasının cazibesi, gerçeklere dayalı eksikliklerine rağmen, şimdiden milyonlarca insan için fazlasıyla karşı konulamaz ve büyüleyici görünüyordu. Aslında, ChatGPT ile geçirdiğim saatler kendi tarafsız bakış açımla uçup gitmişti – bilgi alışverişi çok titiz ve ayrıntılı olduğu için değil (değildi), etkileşim çok büyüleyici ve zahmetsiz olduğu için. Yine de Jade kararlıydı. “Ben bir iyimserim,” dedi.
Jon Gertner2003’ten beri dergi için bilim ve teknoloji hakkında yazıyor. En son evrende akıllı yaşam aramanın yeni yolları hakkında yazmıştı. Erik Carter New York’ta bir grafik tasarımcı ve sanat yönetmenidir. Çalışmaları genellikle bir internet estetiğini canlandırıyor ve mizahi yan yana koymak için medyayı karıştırıyor.