Elon Musk ve AI liderleri, laboratuvarları GPT-4’ten daha kuvvetli AI üstünde durmaya çağırıyor

0

AI’daki en büyük adlardan bazıları, kendi yaratımları hakkında alarm veriyor. Salı günü gösterilen bir açık mektupta, 1.100’den fazla imza sahibi, son teknoloji suni zeka geliştirme mevzusunda bir moratoryum çağrısında bulunmuş oldu.

Future of Life tarafınca gösterilen mektupta, “Tüm suni zeka laboratuvarlarını, GPT-4’ten daha kuvvetli suni zeka sistemlerinin (şu anda eğitilmekte olan GPT-5 dahil) eğitimine minimum 6 ay süreyle derhal ara vermeye çağırıyoruz.” Enstitü, katastrofik ve varoluşsal riskleri azaltmak için çalışan kar amacı gütmeyen bir kurum. “Bu duraklama halka açık ve doğrulanabilir olmalı ve tüm kilit oyuncuları içermelidir. Bu şekilde bir duraklama süratli bir halde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.”

Bunlar kuvvetli insanlardan kuvvetli sözler. İmzacılar içinde, 2018’de şirketten ayrılmadan ilkin GPT-4 üreticisi OpenAI’nin kurucu ortağına destek olan Elon Musk, Apple’ın kurucu ortağı Steve Wozniak ve Skype’ın kurucu ortağı Jaan Tallinn yer ediniyor.

Daha da önemlisi, imzacılar içinde derin öğrenme olarak malum suni zeka yaklaşımına öncülük eden Yoshua Bengio da dahil olmak suretiyle suni zeka alanındaki temel figürler; UC Berkeley İnsan Uyumlu Suni Zeka Merkezi’nin önde gelen araştırmacılarından Stuart Russell; ve DeepMind’da araştırma bilimcisi olan Victoria Krakovna.

Bunlar suni zekayı bilen insanoğlu. Ve toplumun, laboratuvarların devreye sokmak için yarıştığı, giderek daha gelişmiş sistemlere hazır olmadığı mevzusunda uyarıda bulunuyorlar.

Burada göz devirmek için anlaşılır bir dürtü var. Ne de olsa imzacılar içinde, mektubun hakkında uyarıda bulunmuş olduğu üretici suni zeka modellerini öne çıkaran bazı kişiler de var. Geçen yıl metinden görüntüye model Stable Diffusion’ı gösteren Stability AI’nin CEO’su Emad Mostaque benzer biçimde insanoğlu.

Sadece süratli suni zeka geliştirme mevzusundaki yüksek riskler göz önüne alındığında, iki seçeneğimiz var. Birinci seçenek itiraz etmektir, “Bizi bu pisliğe bulaştıranlar bunlar!” İkinci seçenek, “Bizi bu pisliğe bulaştıran insanoğlu bunlar!” diye itiraz etmektir. – ve sonrasında karmaşanın kontrolden çıkmasını önlemek için elimizden gelen her şeyi yapmaları için onlara baskı yapın.

Mektup, hâlâ yapabileceğimiz fazlaca şey bulunduğunu iddia etmekte haklı.

AI ilerlemesini yavaşlatabiliriz – ve yavaşlatmalıyız –

Bazı insanoğlu teknolojik ilerlemeyi yavaşlatamayacağımızı varsayıyor. Ya da yapabilsek bile yapmamalıyız şu sebeple suni zeka dünyaya pek fazlaca yarar sağlayabilir.

Bu varsayımların ikisi de, onları düşündüğünüzde dağılmaya adım atar.

Suni zekayı yavaşlatma durumunu ortaya koyan makalemde yazdığım benzer biçimde, teknolojik kaçınılmazlık yok, tabiat kanunu yok, gelecek yıl GPT-5’i ve sonraki yıl GPT-6’yı almamız icap ettiğini duyuru ediyorum. Hangi suni zeka türlerini oluşturup oluşturmamayı seçeceğimiz, ne kadar süratli ya da ne kadar yavaş gitmeyi seçeceğimiz – bunlar biz insanların vereceği kararlardır.

Sektördeki kar ve prestij teşvikleri – ve jeopolitik rekabet sebebiyle – bir AI yarışı kaçınılmaz benzer biçimde görünse de, aslolan zorluğun tüm oyuncuları yönlendiren temel teşvik yapısını değişiklik yapmak olduğu anlamına gelir.

Açık mektup bu noktayı yansıtıyor. Kuvvetli suni zeka mevzusunda bir moratoryuma ihtiyacımız var, bu yüzden kendimize şunu sorma şansımız var diyor:

Meli makinelerin data kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin mi vereceğiz? Meli tatminkar olanlar da dahil olmak suretiyle tüm işleri otomatikleştiriyoruz? Meli sonunda sayıca üstün olabilecek, zekâsı geçebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştiriyor muyuz? Meli uygarlığımızın kontrolünü yitirme riskini mi alıyoruz?

Başka bir deyişle: Biz yapmıyoruz haiz olmak işimizi çalacak ve kim bilir bizi öldürecek robotlar yapmak.

Yeni bir teknolojiyi yavaşlatmak, boşuna olmaya mahkum köktencilik bir düşünce değildir. İnsanlık bunu daha ilkin yapmış oldu – ekonomik açıdan kıymetli teknolojilerle bile. Bir tek insan klonlamayı yada insan germ hattı modifikasyonunu düşünün. 1975 Asilomar Konferansı’nın arkasındaki rekombinant DNA araştırmacıları, meşhur bir halde belirli deneyler üstüne bir moratoryum düzenlediler. Bilim adamları kesinlikle insan germ hattını değiştirebilirler ve muhtemelen klonlama yapabilirler. Sadece insan embriyolarını modifiye etme mevzusundaki çalışmalarından dolayı üç yıl hapis cezasına çarptırılan Çinli bilim adamı He Jiankui benzer biçimde ender istisnalar haricinde, bunu yapmıyorlar.

Dünyaya pek fazlaca yarar sağlayabileceği için suni zekayı yavaşlatmamamız gerektiği şeklindeki öteki varsayıma ne demeli?

Buradaki kilit nokta, potansiyel faydalar ve potansiyel riskler içinde zekice bir denge kurmamız gerektiğidir. Risklerin yönetilebilir olacağına dair en azından bir miktar itimat olmadan, her zamankinden daha kuvvetli suni zeka geliştirmeye devam etmek mantıklı değil. Ve bu riskler, yalnızca gelişmiş suni zekanın bigün insanlık için varoluşsal bir tehdit oluşturup oluşturmayacağıyla ilgili değil, bununla beraber dünyayı çoğumuzun reddedeceği şekillerde değiştirip değiştiremeyeceğiyle ilgili. Makinelerin yaşamı kesintiye uğratmak için haiz olduğu güç ne kadar fazlaysa, aksamalarla başa çıkabileceğimizden ve bunların kıymetli bulunduğunu düşündüğümüzden o denli güvenli oluruz.

Altı aylık bir duraklama ile tam olarak ne yapacağımız daha azca net. Kurultay ve daha geniş anlamda federal hükümet, suni zeka mevzusunda derin bir uzmanlıktan yoksundur ve suni zekanın benzeri görülmemiş hızı ve gücü, onu denetlemek için standartlar geliştirmeyi fazlaca daha zor hale getirmektedir. Fakat bir şey var ise, bu belirsizlik nefes alma durumunu destekliyor.

Gene, bu köktencilik bir pozisyon değil. OpenAI CEO’su Sam Altman da aynı şeyi söylemiş oldu. Kısa bir süre ilkin ABC News’e, şirketinin yarattığı teknolojiden “birazcık korktuğunu” ve bunun bazı işleri ne kadar acele değiştirebileceği de dahil olmak suretiyle söylemiş oldu.

Altman, “Bence birkaç nesil süresince insanlık, büyük teknolojik değişimlere mükemmel bir halde uyum sağlayabildiğini kanıtladı” dedi. “Fakat bu tek haneli yıllarda gerçekleşirse, bu kaymalardan bazıları … En fazlaca endişelendiğim kısım bu.”

Aslına bakarsak, OpenAI yakın tarihindeki bir açıklamada şunları söylemiş oldu: “Bir noktada, gelecekteki sistemleri eğitmeye başlamadan ilkin bağımsız araştırma almak ve en gelişmiş çabalar için, yeni oluşturmak için kullanılan data işlemin gelişme oranını sınırlamayı kabul etmek mühim olabilir. modeller.”

Açık mektubu imzalayan teknoloji ağır topları aynı fikirde. O nokta, derler ki, şimdidir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir