Sizi öldürebilecek bir şeyi güvenle inşa edebilir misiniz?

0
OpenAI CEO'su Samuel Altman, Senato Yapay Zeka Kuralları Komitesi önünde ifade verdi
Fotoğraf: Win McNamee/Getty Images

OpenAI’den Sam Altman, suni zeka güvenliğinin dengeleyici hareketini iyi mi sürdürüyor?

OpenAI CEO’su Sam Altman bir keresinde “Suni zeka büyük olasılıkla dünyanın sonunu getirecek, sadece ayrıca büyük firmalar olacak” demişti. Latife yapıyordu. Muhtemelen. Çoğunlukla. Söylemesi birazcık zor.

Altman’ın şirketi OpenAI, kuvvetli, çığır açan AI sistemleri oluşturmak için hayal edilemeyecek oranda para topluyor. Şubat ayındaki bir blog gönderisinde “Riskler muhteşem olabilir” diye yazdı. “Yanlış hizalanmış bir süper akıllı AGI, dünyaya ciddi zararlar verebilir; Oldukça mühim bir süper zeka liderliğine haiz otokratik bir rejim de aynı şeyi yapabilir.” Sadece genel sonucu şu: OpenAI ilerlemeli.

Altman ne süre suni zekanın yarattığı varoluşsal risklerden bahsetse, temel bir tuhaflık ortaya çıkıyor ve bu, OpenAI Başkanı Greg Brockman ve Baş Bilim Adamı Ilya Sutskever’in ortak yazarlar olarak da anıldığı son blog gönderisi “Governance of Superintelligence”da bilhassa belirgindi.

Yaptığın şeyin herkesi öldürebileceğini düşünmek birazcık acayip fakat gene de yap

Garip olan şu: Altman, suni zekanın Dünya’daki yaşamı yok edebileceğine tamamen ikna olmuş değil fakat bunu oldukça ciddiye alıyor. Yazılarının ve düşüncelerinin bir çok, suni zeka güvenliğiyle ilgili endişeler çevresinde dönüyor. Blog gönderileri, Holden Karnofsky benzer biçimde elit AI güvenlik düşünürlerine işaret ediyor ve çoğu zaman, kuvvetli sistemlerin ilk geliştirildiği noktada donanım maliyetlerinin iyi mi “önyükleme hızına” dönüştüğü benzer biçimde mevzularda güvenlik araştırmacılarıyla oldukça derin anlaşmazlıklara giriyor. kuvvetli suni zeka sistemlerindeki iyileştirmelerin daha kuvvetli suni zeka sistemlerinin gelişimini yönlendirme hızı.

En azından, onu cehaletle suçlamak zor.

Sadece birçok insan, çalışmalarının dünyayı yok etme mevzusunda mühim bir potansiyele haiz olduğuna inansalardı muhtemelen işi bırakırdı. Geoffrey Hinton, suni zekanın yarattığı tehlikelerin gerçek ve potansiyel olarak yakın olduğuna ikna olunca Google’daki görevinden ayrıldı. AI liderleri, güvenlik için sistemleri iyi mi değerlendireceğimizi ve evrimlerine iyi mi rehberlik edeceğimizi anladığımız için yavaşlama çağrısında bulunmuş oldu.

Altman, OpenAI’nin felakete doğru gittiğini anlarsa yavaşlayacağını yada yön değiştireceğini söylemiş oldu. Sadece şimdilik, herhangi biri gelişmiş suni zekadan ölebilecek olsa da, en iyi yolun tam gaz ilerlemek bulunduğunu düşünüyor şundan dolayı daha önceki suni zeka gelişimi onu daha güvenli hale getiriyor ve öteki, daha fena erkek oyuncular onu değişik şekilde geliştirebilir.

Bana bakılırsa Altman garip bir dengeleyici hareket benzer biçimde görünüyor. Arkadaşlarından bazıları, AI güvenliğinin temelde anlam ifade etmeyen bulunduğunu ve bir problem teşkil etmeyeceğini düşünüyor. Ötekiler, güvenliğin insanlığın karşılaşmış olduğu en büyük problem bulunduğunu söylüyor. OpenAI ikisini de yabancılaştırmak istemiyor. (Ek olarak deli miktarlarda para kazanmak ve dünyayı mahvetmemek istiyor.) Bu kolay bir dengeleme eylemi değil.

Şubat blog gönderisinde “Suni zeka alanındaki bazı kişiler, AGI’nin (ve ardıl sistemlerin) risklerinin imgesel bulunduğunu düşünüyor” diyor. “Doğru çıkarlarsa mutlu oluruz, sadece bu riskler varoluşsalmış benzer biçimde davranacağız.”

Ve bir tür suni zeka düzenlemesine yönelik ivme arttıkça, bilhassa teknoloji meraklısı ve fütürist Silikon Vadisi’nde, belirsiz bir kıyamet tehdidinin, büyük seviyede gelişebilecek kıymetli, yaşamsal teknolojilerin kıstırılmasına yol açacağına dair artan korkular var. insan tomurcuk halini alır.

Güvenli AI geliştirmeyi sağlamakla mümkün olan en süratli şekilde geliştirmek içinde bazı gerçek dengeler vardır. Suni zeka sistemlerinin ne süre aşırı derecede tehlikeli bulunduğunun farkına varmak için uygun düzenleyici politikalar, muhtemelen kuvvetli suni zeka sistemleri oluşturma maliyetini artıracak ve sistemlerimiz daha tehlikeli hale geldikçe daha yavaş hareket etmemize niçin olacaktır. Bu uzlaşmadan tamamen çıkmanın bir yolu bulunduğunu düşünmüyorum. Sadece, elbet, düzenlemenin gerekenden oldukça daha verimsiz olması ve minimum güvenlik tesiri ile oldukça fazla kıymeti yok etmesi de mümkündür.

Düzenleme söz mevzusu olduğunda herkesi mutlu etmeye çalışıyorum

Son olarak OpenAI blog gönderisi bana, Altman ve OpenAI liderliğinin geri kalanının tekrardan bir ip üstünde adım atma girişimi olarak okunuyor: Dünya’daki yaşamın gerçek anlamda sona erdirilmesi (ve diğerlerinin felaketleri önlemesi) için kafi olduğuna inandıkları düzenleme talep etmek. ve müdafa için Düzenlemelerin aptalca, maliyetli ve dünya için fena olduğuna inanıyorlar.

Bundan dolayı Süper Zekâ Yönetişimi Yol Haritası olarak adlandırılan sözde şu uyarı paragraflarını içermektedir: “Bugünün sistemleri dünyada çok önemli bir kıymet yaratacak ve riskler oluştursalar da bu risklerin büyüklüğü öteki web teknolojileriyle karşılaştırılabilir görünmektedir ve toplumun ihtimaller içinde yaklaşımlar makul görünmektedir.”

“Tersine, bizi ilgilendiren sistemler, bugüne dek oluşturulmuş herhangi bir değişen teknolojinin ötesinde bir performansa haiz olacak ve bu sınırın oldukça altındaki teknolojilere benzer standartlar uygulayarak bunlara odaklanmaya dikkat etmeliyiz.”

Alaycı bir halde, “Bizi bugün değil, gelecekte belirsiz bir noktada düzenleyin!” Birazcık daha azca alaycı bir halde, Altman’ın burada iletmeye çalmış olduğu her iki duygunun da şu anda Silikon Vadisi’nde kökleşmiş bulunduğunu düşünüyorum. İnsanlar suni zekanın kuvvetli, tehlikeli ve dünyayı değiştiren, tipik tüketici yazılımı girişiminizden değişik bir halde yaklaşmaya kıymet bir şey olmasından korkuyor – Ve birçok ihtimaller içinde düzenleme önerisinin insan refahını beşikte kıracağını.

Sadece “bugünün güvenli sistemlerini değil, geleceğin tehlikeli, kuvvetli suni zeka sistemlerini düzenleme” ile ilgili problem şu ki, bunun apaçık olup olmayacağı hakikaten net değil, şundan dolayı mevcut eğitim tekniklerimizle geliştirilen suni zeka sistemleri yalnızca “tehlikeli, kuvvetli” olduğunda yeterince anlaşılamıyor. ” ortaya çıkar – ve güvenli olmadığında bir sistemin güvenli bulunduğunu söylemek için daima ticari bir teşvik olacaktır.

Düzenlemeyi belirli kabiliyetlere bağlamaya yönelik somut önerileri memnuniyetle karşılıyorum: büyük ölçekli bağımsız eylemler gerçekleştirebilen sistemler için daha yüksek standartlar, son aşama manipülatif ve ikna edici sistemler, terörist saldırıları yönlendirebilen sistemler vb. Sadece bir yere varmak için konuşmanın somutlaşması gerekir. Bir sistemi düzenleme için mühim olacak kadar kuvvetli kılan nedir? Günümüz sistemlerinin risklerini iyi mi bilebiliriz ve bu risklerin tolere edilemeyecek kadar büyüdüğünü iyi mi bilebiliriz? Bir “süper zeka yönetişimi” planı buna cevap vermelidir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir