OpenAI’den Sam Altman’ın suni zeka güvenliği için bir planı var. Fakat güvenli mi?
ChatGPT’nin yaratıcıları ve Bing’in Sydney söyleşi robotunun altında yatan teknoloji olan OpenAI’nin daima komik derecede iddialı bir misyonu olmuştur: dünyaya çoğu zaman insanlardan daha akıllı suni zeka sistemleri getirmek.
OpenAI CEO’su Sam Altman, geçen hafta “AGI ve Ötesi için Planlama” başlıklı bir gönderide, firmanın bununla ne demek istediğini deklare etti: OpenAI, art arda daha kuvvetli sistemler oluşturacak ve yayınlayacak ve bunun, korkulu dünyayı güvence altına almak için en iyi yaklaşım bulunduğunu korumak için çaba sarfediyor. süper zekaya haiz bir dünyaya geçiş iyi gidiyor.
Altman, “Süper zekaya haiz bir dünyaya başarıya ulaşmış bir halde geçiş yapmak, kim bilir insanlık tarihindeki en mühim – ve ümit verici ve ürkütücü – projedir” diye yazdı. “Başarı güvence olmaktan oldukca uzak ve riskler (sınırsız dezavantaj ve sınırsız artı) ümit ederim hepimizi birleştirecek.”
OpenAI’nin AGI’ye erişme planının birçok detayına katılmıyorum, sadece bu ifadenin inanılmaz derecede kıymetli bir şey yaptığını düşünüyorum: OpenAI’nin ne hayata geçirmeye çalıştığını açıkça ortaya koyuyor, böylece liderliğinin yapmış olduğu türden bir hesap verebilirliğe ve dış incelemeye doğal olarak olabilir. icap ettiğini kabul eder.
OpenAI sözüne güvenmek
Yakın zamana kadar, nispeten azca sayıda insanoğlunun OpenAI’nin dünyayı değiştiren bir teknoloji üstünde çalıştığına dair beyanını hakikaten oldukca ciddiye aldığını düşünüyorum. Ne de olsa, teknoloji şirketleri çoğu zaman “dünyayı değiştireceklerini” beyan ederler ve bir çok kez de bunların hepsi pazarlamadır ve içerikten yoksundur. OpenAI’nin yalnız madde içermeyen abartılarla uğraştığını düşünüyorsanız, OpenAI’nin planlarının ayrıntılarını araştırmak, hesap verebilirlik hakkında konuşmak yada kuvvetli AI’nın iyi mi iyi hale getirileceği sorusuyla ilgilenmek için oldukca azca niçin vardı.
Kurucu ortak ve başkan Greg Brockman’a “Open AI LP’ye yönelik bazı eleştiri tepkileri okurken beni etkileyen bir şey, eleştirmenlerinizin çoğunun AGI kuracağınıza inanmamasıydı” dedim. OpenAI, 2019’da. “Doğrusu eleştirilerin bir çok şuydu: ‘Bu bir peri masalı.’ Ve bu kesinlikle mühim bir eleştiri açısı. Fakat o şekilde göründüğü gibi, ‘Pekala. AGI inşa edeceğiniz mevzusunda mühim bir talih – düşünmeye kıymet bir talih – olduğuna inanıyorum … ve sizi görevli tutmak isterim.’”
Brockman o sırada “Sanırım bir adım daha ileri gidiyorum ve yalnız bunu yapacağımıza inanmayanlar değil, hem de yapacağımıza inandığımıza bile inanmayan insanoğlu diyorum” dedi. yapacağız.”
OpenAI’nin oldukca kuvvetli AI sistemleri geliştirmeyi hedeflediğini söylediğinde, Altman’ın kısa sürede söylediği şeklinde “Fena durum – ve bence bunu söylemek mühim – çoğumuz için ışıkların sönmesi şeklinde” sistemler geliştirmeyi amaçladığı için oldukca daha net hale geldi. söz mevzusu.
ChatGPT’nin 100 milyondan fazla kullanıcısı var ve teknoloji şirketleri içinde kendi dil modelleriyle onu geçmek için bir yarış başlattı. OpenAI’nin kıymeti 100 milyar doların üstüne çıktı. OpenAI, bu aşamada, suni zeka ile alakalı kamu bilgisini, suni zeka mevzusundaki coşkuyu, suni zeka etrafındaki rekabeti ve kuvvetli sistemlerin geliştirilmesini ileriye taşıyor.
NYU profesörü Gary Marcus geçtiğimiz günlerde “Teknoloji şirketleri, yeni nesil AI teknolojisinin bu baş döndürücü dağıtım hızının sonuçlarına tam olarak hazırlanmadı” diyerek, “AI uyumluluğunu sağlamak için kapsamlı bir siyaset çerçevesinin küresel yokluğunun – doğrusu , bir suni zekanın işlevinin insanlara zarar vermemesini sağlamak için önlemler – yeni bir yaklaşım için yalvarıyor.” Belirgin yeni bir yaklaşım – ve onun tercih etmiş olduğu – kuvvetli sistemlerin dağıtımını yavaşlatıyor.
Sadece OpenAI bunun yerine tam tersini yapmamız icap ettiğini korumak için çaba sarfediyor.
Kuvvetli suni zekayı olabildiğince süratli geliştirmek için acil etme teorisi
Birçok uzmanın inanılmış olduğu ve Altman’ın kendisinin de söylediği şeklinde, suni zekanın oldukca riskli olduğuna inanıyorsanız, yeni ve daha kuvvetli modelleri mümkün olan en kısa sürede piyasaya sürmek için acil etmek acayip gelebilir. OpenAI, mevcut modellerle ilgili ciddi endişeler ışığında süratli piyasaya sürülme hızı sebebiyle (bence haklı olarak) şiddetle eleştirildi ve “AGI ve Ötesi için Planlama” en iyi, kısmen bu eleştirilere bir cevap olarak okunabilir.
Bu yanıtın temel olarak iki unsuru vardır. Birincisi, Altman, suni zeka söz mevzusu olduğunda yaparak öğreneceğimizi korumak için çaba sarfediyor: modelleri özgür bırakmak, onlarla ilgili sorunları fark etmemize, tuhaflıklarını keşfetmemize ve onlara ne işe yaradığını anlamamıza destek olacak. “‘Tek seferde doğru yapma’ senaryolarını en aza indirmek için hızla gelişen teknolojinin daha azca kuvvetli sürümlerini konuşlandırarak devamlı olarak öğrenmemiz ve uyum sağlamamız gerektiğine inanıyoruz” diye yazıyor.
Argümanın öteki mühim yarısı (çoğunlukla bir dipnotta yapılır), oldukca kuvvetli, insan düzeyinde suni zeka sistemleri geliştirmemizin, bunun yerine hala oldukca pahalı olmasına karşın, hizalama sorununu çözmede insanlığın çabaları için iyi olacağıdır. bunu yapmak oldukca ucuz hale gelene kadar beklemek. (Bilgisayar çipleri zaman içinde ucuzluyor, dolayısıyla 2030’da yapabileceğimiz her şeyi 2040’ta daha ucuza yapabileceğimizi beklemeliyiz.)
Bunu, OpenAI’nin aslına bakarsanız yapmak istediği şey için post hoc bir rasyonalizasyon olarak gördüm, bu da pek oldukca mükemmel şey buluş etmek ve mevcut modellerde daha azca ödüllendirici güvenlik emek harcaması hayata geçirmeye takılıp kalmamak. Bunun bir unsurunu göz ardı etmek zor fakat bence burada da gerçek bir münakaşa var.
Son aşama kuvvetli ve tehlikeli sistemlerin geliştirilmesinin pahalı olmasına karşın pek oldukca pozitif yanları vardır: Yarışa daha azca erkek oyuncu dahil olacak, ekonominin büyük alanlarını etkilemeden gelişmiş AI sistemlerini düzenlemek ve denetlemek daha kolay olacak, ve bazı suni zeka yıkım senaryoları daha azca ihtimaller içinde hale gelir zira bir suni zeka sisteminin yeteneklerinin aynı hızda artması daha zor olabilir.
AI ile çoğumuz bir paydaşız
Sadece aslolan mesele – Altman’ın azca oldukca kabul etmiş olduğu şeklinde – bunun OpenAI için aşağı yukarı kendi başına meydana getirecek bir konumda olması için komik derecede yüksek riskli bir karar olmasıdır. Kuvvetli sistemler geliştirmek için acil etmek, gezegendeki herkesi kelimenin tam anlamıyla öldürebilir. Sadece bu tamamen negatif değil – OpenAI’nin tartıştığı bazı avantajlar gerçek.
Yapmalı mıyız? Hayır diyorum, sadece karar verme şeklinin her suni zeka şirketinin tüm hızıyla devam edip etmeyeceğine kendisi karar vermesi saçma olduğundan inanırım.
OpenAI, tek taraflı olarak ilerlemek istememekle ilgili tüm doğru şeyleri söylüyor, dış denetimler ve nezaret için tartışıyor ve daha kuvvetli sistemler konuşlandırıldıkça süratli hareket eden yaklaşımını tekrardan gözden geçirebileceğini vaat ediyor. Sadece pratikte, kuvvetli AI sistemleri hakkında endişelenmek hala oldukça niş ve öteki paydaşların – doğrusu yaşayan her insanın – OpenAI’ye yararlı bir nezaret sunması için iyi yollar yok.
Burada bilhassa OpenAI’nin peşine düşmek istemiyorum. Ne yaptığını ve neyin tehlikede bulunduğunu düşündüğünü açıklarken, AGI’nin nihai amacı bulunduğunu asla kabul etmemiş olsaydı kaçınabileceği oldukca fazla dikkat çekiyor.
Öteki birçok AI laboratuvarı daha fena. “Akıl yürütebilen ve planlayabilen” ve “insanoğlu ve hayvanlar kadar verimli öğrenebilen” makineler yapmayı hedeflediğini de söyleyen Feysbuk’tan Yann LeCun, Scientific American’da muhteşem risklerle ilgili tüm tartışmaların aptalca bulunduğunu yazdı: “Niçin? Duyarlı bir suni zeka dünyayı ele geçirmek ister miydi? Olmazdı.”
Sadece risklerin gerçek bulunduğunu söylediği ve yaklaşımının riskleri yönetmek için en iyi yaklaşım bulunduğunu açıklamış olduğu için OpenAI’yi takdir etsem de, inanılmaz derecede kuvvetli AI sistemlerini olabildiğince süratli geliştirmenin faydalarının risklerinden daha ağır basmış olduğu mevzusunda şüpheliyim. – ve ümit ederim OpenAI, yapmış olduğu iş üstünde harici kontrollere açık bulunduğunu söylediğinde bunu kasteder.
Bu hikayenin bir versiyonu ilk olarak Future Perfect haber bülteninde gösterildi. Abone olmak için buradan kaydolun!