Bir AI felaketine mi gidiyoruz?

0
Microsoft CEO’su Satya Nadella, firmanın 7 Şubat 2023 Salı Redmond, Washington’daki genel merkezinde düzenlenen bir etkinlikte konuşuyor. | Getty Images vasıtasıyla Chona Kasinger/Bloomberg

Microsoft ve Google benzer biçimde teknoloji devleri suni zeka pazarını fethetmek için rekabet ederken, güvenlik sonradan akla gelebilir.

Microsoft CEO’su Satya Nadella, Salı günü firmanın ChatGPT lansman etkinliğinde “Yarış bugün başlıyor ve süratli hareket edeceğiz” dedi.

Bu kelime – “ırk” – son zamanlarda suni zeka dünyasında çokça kullanılıyor. Google ve Baidu, aramanın temel bir bileşeni olarak OpenAI ve Microsoft’un ChatGPT’si ile rekabet etmekte zorlanırken, Meta hayal kırıklığına uğramamak için savaşım ediyor.

Teknoloji çoğu zaman kazananın her şeyi almış olduğu bir sektördür – Google’ın arama pazarının ortalama yüzde 93’ünü denetim ettiğini düşünün – sadece suni zeka bu ivmeyi hızlandırmaya hazır. Microsoft ve Baidu benzer biçimde rakipler, Google’ı devirmek ve suni zeka özellikli, kullanıcı dostu bir arayüzle web arama devi olmak için altın bir fırsata sahipler. Bazıları daha da ileri giderek, Microsoft destekli OpenAI’nin delicesine popüler ChatGPT’sinin ilk salvo olarak yorumlanması ihtiyaç duyulan bir “ABD-Çin üretici suni zeka silahlanma yarışı” bulunduğunu savundu.

Niçin bazı insanoğlu AI yarışının başlaması için bu kadar heyecanlı değil?

Bu beni utandıran bir kelime şundan dolayı AI stratejisi ve politikasındaki insanoğlu da bunun hakkında fazlaca konuşuyor. Sadece bu bağlamda, ister teknoloji şirketleri içinde isterse jeopolitik rakipler içinde olsun, bir “AI silahlanma yarışı” pazar payının fazlaca ötesinde negatif sonuçlara yol açabilir.

DeepMind’in kurucusu ve yöneticisi Demis Hassabis geçtiğimiz günlerde Time’a “Oldukça kuvvetli teknoloji söz mevzusu olduğunda – ve açıkçası AI tüm zamanların en güçlülerinden biri olacak – dikkatli olmalıyız.” “Bu tarz şeyleri hepimiz düşünmüyor. Birçoğu tehlikeli maddelere haiz bulunduğunun bilincinde olmayan deneyciler benzer biçimde.”

“Suni zeka kadar mühim teknoloji için ‘süratli hareket etmek ve bir şeyleri bozmak’ *ÖNEMLİ DEĞİL*,” yazdı Twitter’da Eylül. Her zamanki Silikon Vadisi ruhu – bir şeyler deneyin, başarısız olduklarını görün, yine deneyin – bizlere inanılmaz derecede mükemmel tüketici teknolojisi ve keyifli internet sayfaları getirdi. Sadece bir gökdeleni yada insanlı bir roketi bu şekilde inşa edemezsiniz ve kuvvetli suni zeka sistemleri, güvenilirlik için sağlam mühendisliğe gereksinim duyduğunuz ikinci kategoriye girme eğilimindedir.

OpenAI’nin ChatGPT’si, Google, Baidu ve Microsoft’un suni zeka geliştirmede liderlik mücadelesini ateşleyen ürün sürümüydü, sadece bu girişimin liderliği bile bizi nereye götürmüş olduğu mevzusunda birazcık endişelerini dile getirdi. “Fena durum – ve bence bunu söylemek mühim – tamamımız için ışıkların sönmesi benzer biçimde… Bence suni zeka güvenliği ve uyum çalışmasının önemini abartmak olanaksız. OpenAI CEO’su Sam Altman yakın tarihindeki bir röportajda, fazlaca daha fazlasının gerçekleştiğini görmeyi fazlaca isterim” dedi.

(O da isminde Google’ın ChatGPT’ye yanıtı, kendi AI sürümlerini hızlandırması ve güvenlik endişelerini “tekrardan ayarlaması”, “hayal kırıklığı yaratan” bir gelişme: “Openai, yeni modeller daha kuvvetli hale geldikçe almaktan kıvanç duyduğumuz riski azaltmaya devam edecek, değil. Öteki taraftan.)

Niçin kuvvetli suni zeka için yarışmamaya çalışmalıyız?

Microsoft’un Google’dan birazcık arama pazar oranı çalması umurumda değil mi? {Hiç de} bile. gittim Sadece, Big Tech’in suni zeka yarışında her şeyi yaptığına dair son açıklamalar dalgası beni hala endişelendiriyor.

Bazı analistlerin ifade etmiş olduğu benzer biçimde, “bir suni zeka felaketine düşmemizin” rahat bir yolu, yüksek performanslı sistemler geliştiren araştırmacıların uyarı işaretlerini görmezden gelmesi ve zayıf sistemler için tasarlanmış yaklaşımlarla ilk başlarda iyi çalışan sistemleri dikkatsizce eğitmesidir. aşamalar – sadece daha sofistike, daha ikna edici ve potansiyel olarak kullanıcılarını kandırabilen bir AI sisteminde parçalanıyor.

İşte bir fikir deneyi: 3 yaşındaki çocuğunuzun size yalan söylediğini daima anlayabildiğinizi hayal edin, bundan dolayı onu yanlış yapmaktan vazgeçirme planınız, onun yaramazlık yapmış olup yapmadığını sormaktır. Mükemmel çalışıyor, sadece daha talepkar gençliğinizle aynı plana bağlı kalırsanız, o da işe yaramayacaktır.

Genel olarak, bir çok kaşif pervasız değildir ve dünyayı riske atmak istemez. Laboratuvarları suni zeka geliştirirken ve yanlış hizalama, yanıltıcı davranış, ileriye dönük planlama vb. ürkütücü emareleri fark etmeye başladıklarında, alarma geçecekler ve duracaklar! Artık hizalamanın ciddi bir mesele olduğundan kuşku duyan araştırmacılar bile, bunu laboratuvarlarında görürlerse, pazara daha büyük ve daha büyük sistemler getirmeden ilkin bu problemi çözmek isteyeceklerdir.

Rekabet niçin mükemmel ve tehlikeli olabilir?

Fakat laboratuvarda olabilecek şey bu. Büyük rekabetin yaşandığı ekonomik yarışta bir şirket, ilk olarak sistemini bir rakibinden ilkin kullanıp kullanmamayı düşünür. Güvenlik kontrolleri için yavaşlarsanız, oraya ilkin başka birinin varması riskini alırsınız. Jeopolitik suni zeka silahlanma yarışı senaryolarında, Çin’in suni zekada ABD’nin önüne geçeceği ve inanılmaz derecede kuvvetli bir silaha haiz olacağı ve ABD’nin kendi tamamlanmamış sistemlerini yaygın konuşlandırmaya zorlayabileceği beklentisi var.

Hizalanma fazlaca çözülebilir bir mesele olsa da, hepimiz bir rakibi yenmek için acil ederken, inanılmaz derecede kuvvetli sistemler üstünde karmaşık teknik işler halletmeye çalışmak, başarısızlığın reçetesidir.

Suni genel zeka yada AGI üstünde çalışan bazı erkek oyuncular, bu tehlikeli tuzaktan kaçınmak için yola çıktılar: Mesela, OpenAI, tüzüğünde, bilhassa sistemler yeterince kuvvetli olduğunda bir AI yarışını önlemeyi amaçlayan hükümler içeriyor: geç AGI gelişimi, uygun güvenlik önlemleri için zamansız bir yarış yapıyor. Bundan dolayı, kıymet odaklı, güvenlik bilincine haiz bir proje önümüzde AGI inşa etmeye yaklaşırsa, artık o projeyle rekabet etmeyeceğimizi ve bu projeyi desteklemeyeceğimizi taahhüt ederiz. Ayrıntıları bireysel anlaşmalarda ele alacağız, sadece tipik bir tetikleyici şart, “önümüzdeki iki yıl içinde ortalamanın üstünde bir başarı olasılığı” olabilir.

Genel olarak insan doğası mevzusunda iyimserim. Etken kimse yok talep hepimizi öldürecek bir sistem oluşturmak. Dolayısıyla hizalama problemini yeterince iyi anlayabilirsek, mühendisler niçin bir çözüme gereksinim duyduklarını anlayacaklardır. Sadece yarışın başladığına dair istekli beyanlar beni endişelendiriyor.

İnsan doğasının bir başka büyük yanı da, çoğu zaman inanılmaz derecede rekabetçi olmamızdır – ve bu rekabet büyük ilerlemeye yol açarken, bununla birlikte büyük yıkıma da yol açabilir. Uzay yarışını tetikleyen Soğuk Harp’tı, fakat bununla birlikte atom bombasının gelişimini teşvik eden İkinci Dünya Savaşı’ydı. Kazanan her şeyi alır rekabeti, insanlık tarihindeki en kuvvetli teknolojilerden birine karşı takındığımız tavırsa, insanlığın kazanacağını düşünmüyorum.

Bu hikayenin bir versiyonu ilk olarak Future Perfect Bülteninde gösterildi. Abone olmak için buradan kaydolun!

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir