Askeri AI özellikli bir drone niçin bir simülasyonda başarısız oldu?

0
Gün batımında denizin üzerinde uçan bir casus insansız hava aracının silueti.
Denizin üstünde uçan bir casus insansız hava aracının silueti. | Getty Images/iStockphoto

Ve bizlere kuvvetli fakat kontrolsüz suni zekanın yarattığı artan varoluşsal tehdit hakkında ne konu alıyor.

Bu hafta Londra’da düzenlenen internasyonal bir müdafa konferansında, ABD Hava Kuvvetleri’nin AI testleri ve operasyonları şefi Albay Tucker Hamilton, askeri AI gelişimi hakkında gülünç ve tüyler ürpertici bir öykü paylaştı.

“Antrenman yaptık [an AI-enabled drone] simülasyonda bir SAM’i tanımlamak ve hedeflemek için [surface-to-air missile] Çekince. Ve sonrasında operatör evet, bu tehdidi öldür derdi. Sistem, tehdidi aralıklı olarak fark etmesine karşın, insan operatörün kendisine bu tehdidi öldürmemesini söylediğini, sadece faydalarını bu tehdidi öldürerek elde ettiğini fark etmeye başladı. Peki ne yapmış oldu? Operatörü öldürdü. Operatörü öldürdü bu sebeple o şahıs hedefine ulaşmasını engelledi.”

“Sistemi eğittik – ‘Hey, operatörü öldürme – bu fena.’ Bunu yapmış olursanız puan kaybedersiniz.” Peki bu neyle başlıyor? Operatörün hedefi öldürmesini önlemek için drone ile kontakt oluşturmak için kullandığı kontakt kulesini yok etmekle adım atar.”

Başka bir deyişle, suni zeka, operatörü aksini söylemediği sürece hedefleri yok etmek suretiyle eğitildi. Mümkün olmasıyla birlikte oldukça puan almanın en iyi yolunun, insan operatörün yapamayacağından güvenilir olmak olduğu kısa sürede anlaşıldı. Onu söyleme. Ve böylece operatör tahtadan çıkarıldı. (Açık olmak gerekirse, kontrol sanal bir simülasyondu ve hiçbir insansız hava aracı operatörü zarar görmedi.)

Alay korkuya dönüştüğünde

Suni zeka sistemleri giderek daha kuvvetli hale geldikçe, çoğu zaman tam olarak beklediğimiz benzer biçimde yapmanın zor olması gerçeğinin, keyifli bir eksantriklikten oldukça ürkütücü bir soruna dönüşme riski vardır. Bu hafta, bu kez Suni Zeka Güvenliği Merkezi’nden gelen, suni zeka riskiyle ilgili başka bir açık mektuba bu kadar oldukça imza atan kişinin olmasının sebeplerinden biri de bu. Açık mektubun tamamı tek bir cümleden oluşuyor: “Pandemiler ve nükleer harp benzer biçimde öteki toplumsal risklerin yanı sıra suni zekanın niçin olduğu yok olma riskini sınırlamak küresel bir öncelik olmalıdır.”

İmzacılar içinde, hem önde gelen hem de elit AI araştırmacıları olan 2018 Turing Ödülü sahibi Geoffrey Hinton ve Yoshua Bengio; Dünyaca meşhur üniversitelerden – Oxford, UC Berkeley, Stanford, MIT, Tsinghua Üniversitesi – profesörler ve OpenAI CEO’su Sam Altman, DeepMind CEO’su Demis Hassabis, Anthropic CEO’su Dario Amodei ve Microsoft’un Baş Bilim Sorumlusu Eric Horvitz benzer biçimde sektör yöneticileri.

Ek olarak, toplumumuzun suni zekanın bilim kurgu benzer biçimde görünen feci, hatta varoluşsal olarak fena neticelerini ne kadar ciddiye aldığına dair süratli bir değişime işaret ediyor. Suni zeka bilimindeki bazı önde gelen adlar, suni zekanın yok olma tehdidiyle ilgili endişelerini giderek daha çok dile getiriyor. Université de Montréal’de profesör ve derin öğrenmeye muhteşem katkılarından dolayı 2018 AM Turing Ödülü’nü kazanan Bengio, kısa bir süre ilkin How Rogue AIs May Are Emerging başlıklı bir blog yazısı yayınladı ve bu da coşku verici bir okuma sağlıyor.

“Güvenli süper akıllı suni zekaları iyi mi kuracağımızı bilsek bile,” diye yazıyor. “Potansiyel olarak fena amaçlı suni zekaların oluşturulmasının da iyi mi önleneceği net değil. … Suni zeka güvenliği mevzusunda hem teknik hem de politik düzeyde oldukça daha çok araştırmaya gerekseme var. Mesela, özerkliğe ve aracılığa izin verilen kuvvetli suni zeka sistemlerini (mesela GPT-4’ün yeteneklerinin ötesinde) yasaklamak iyi bir başlangıç ​​olacaktır.”

Derin öğrenmede bir önder olarak katkılarından dolayı 2018 AM Turing Ödülü’nün bir başka alıcısı olan Hinton da son iki aydır suni zekanın yarattığı varoluşsal riski gerçek ve kaygı verici bir olasılık olarak öne sürerek konuştu. (Üçüncü ortak alıcı, Meta’nın baş suni zeka bilimcisi Yann LeCun, dikkate değer bir şüpheci olmaya devam ediyor.)

Direnişe hoş geldiniz

Normal olarak burada, Future Perfect’te, 2018’den beri suni zekanın insan soyunun tükenmesi için gerçek bir risk oluşturduğunu tartışıyoruz. Bu yüzden, bunun bir problem olduğu mevzusunda artan bir düşünce birliği ve bunun iyi mi çözüleceğine dair artan bir ilgi görmek cesaret verici.

Sadece bu risklerin gerçek olduğu, bilimkurgu olmadığı ve bizim işimizin onları çözmek olduğu mevzusundaki artan farkındalığın, kuvvetli suni zeka sistemleri inşa etme çabalarının hızını hakikaten değiştirmediği ve toplumumuzu ne kadar değiştirdiği mevzusunda endişeleniyorum. .

Simüle edilmiş askeri suni zekanın operatörleri durduramamak için iyi mi öldüreceğinin öyküsünü paylaşan Albay Hamilton, “suni zeka, zeka, makine öğrenimi ve özerklik hakkında ne süre konuşamazsınız” sonucuna vardı. Etik ve suni zeka hakkında konuşmayacaklar.” Sadece bunun benzer biçimde endişeler, Pentagon’un otonom silahlar da dahil olmak suretiyle suni zeka araştırmalarını ve kullanımını geliştirmesini engellemedi.

Şahsen, bu hikayeden çıkardığım netice, daha kuvvetli suni zeka sistemlerini kullanmayı bırakmamız ve onları iyi mi tespit edeceğimize dair oldukça net bir fikrimiz olana kadar onlara gerçek dünyada büyük seviyede yıkıcı eylemler gerçekleştirmeleri için daha çok fırsat vermeyi bırakmamız gerektiğiydi.

Aksi takdirde, felaketin alametlerini çevremizde işaret ediyor olmamız, hatta felakete yakalanma noktasına kadar rahatsız edici bir halde akla yatkın görünüyor.

Bu hikayenin bir versiyonu ilk olarak Future Perfect haber bülteninde gösterildi. Kaydolmak için buradan kaydolun!

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir