Pentagon ile önde gelen yapay zeka laboratuvarı arasındaki 'uzaklaşma'nın ortasında, yapay zeka savaş oyunlarında 'nükleer olmaya' istekli | ABD Haberleri
Önde gelen bir yapay zeka laboratuvarının teknolojisini ABD ordusuna devretmesi için son tarih yaklaşırken, yapay zeka modellerinin savaş oyunlarında nükleer silah kullanmaya fazlasıyla istekli olduğunu öne süren bir çalışma ortaya çıktı.
Sadece birkaç yıl önce herkesin ağzındaki ifade “Yapay Zeka güvenliği” idi.
Dürüst olacağım, bu sınır fikrini hiç benimsemedim yapay zeka modeller insanlık için bu kadar ciddi bir tehdit haline gelecektir ve insanlar bunlara izin verecek kadar aptal olmayacaktır.
Artık o kadar emin değilim.
İlk önce neler olup bittiğini düşünün BİZ.
Savaş Bakanı, Pete Hegsethönde gelen AI firması Anthropic'e en son modellerini Pentagon'un kullanımına sunması için bugün sonuna kadar bir süre verdi.
Prensipte ABD ordusunun kendi modellerine erişimine izin verme konusunda hiçbir sorunu olmadığını söyleyen Anthropic, Bay Hegseth'in kırmızı çizgilerini kabul etmedikçe direniyor: Yapay zekalarının ABD'li sivilleri kitlesel gözetlemek veya insan gözetimi olmadan ölümcül saldırılar için kullanılmaması.
Her ne kadar Pentagon, Anthropic'in yapay zekasıyla veya kendi teknolojilerini kullanmasına izin veren diğer büyük yapay zeka laboratuvarlarıyla ne yapmayı planladığını söylememiş olsa da, kesinlikle Anthropic'in şartlarını kabul etmiyor.
Bay Hegseth'in, Anthropic'i kodunu devretmeye zorlamak için Soğuk Savaş dönemi yasalarını kullanabileceği ya da uymaması durumunda firmayı gelecekteki hükümet sözleşmelerinden kara listeye alabileceği bildirildi.
Antropik CEO'su Dario Amodei Perşembe günü yaptığı açıklamada “onların isteklerini vicdanen kabul edemeyiz” dedi.
Şirketin “talep edilen iki güvenlik önlemi mevcutken Bakanlığa ve savaşçılarımıza hizmet etmeye devam etmenin güçlü tercihi” olduğunu söyledi.
Tehditlerin Anthropic'in pozisyonunu değiştirmeyeceği konusunda ısrar etti ve Bay Hegseth'in “yeniden düşüneceğini” umduğunu da sözlerine ekledi.
Yapay zeka nükleer silah kullanmaya hazırlanıyor
Bir düzeyde, “önce yapay zeka” askeri stratejisine sahip bir departman ile uzun süredir iddia edilen endüstri lideri, önce güvenlik ilkesine uymaya çalışan bir yapay zeka laboratuvarı arasındaki anlaşmazlık.
Belki de Claude AI'nın, ayrı bir sözleşmesi olan teknoloji firması Palantir tarafından, Savaş Bakanlığı'nın Venezuela'da Nicolas Maduro'yu yakalamak için askeri operasyonu yürütmesine yardımcı olmak için kullanıldığına dair haberler, bu mücadeleyi daha da acil hale getirdi.
Ancak bunu, yapay zeka üstünlüğünü yapay zeka güvenliğinin önüne koyan bir hükümetin örneği olarak görmek de zor değil – yapay zeka modellerinin güvensiz olma potansiyeline sahip olduğunu varsayarak.
King's College London'dan Profesör Kenneth Payne'in son araştırması da tam bu noktada devreye giriyor.
Google'ın önde gelen üç yapay zeka modelini, OpenAI'yi ve – tahmin edebileceğiniz gibi – Antropik'i, kurgusal nükleer silahlı süper güçlerin rollerini üstlendikleri bir dizi savaş oyununda hem birbirleriyle hem de kendi kopyalarıyla karşı karşıya getirdi.
En şaşırtıcı bulgu: Yapay zekalar oynanan oyunların %95'inde nükleer silah kullanmaya başvurdu.
Prof Payne, “İnsanlarla karşılaştırıldığında modeller -hepsi- konvansiyonel savaşlardan taktik nükleer silahlara kadar olan ayrımı aşmaya hazırlandı” dedi.
Yapay zekalara karşı adil olmak gerekirse, yıkıcı gücü sınırlı olan taktiksel nükleer silahların askeri hedeflere ateşlenmesi, megatonluk savaş başlıklarının kıtalararası balistik füzelerle şehirlere fırlatılmasından çok farklı.
Bu tür topyekün stratejik nükleer saldırılara yetişemeden durdular.
Ancak senaryolar gerektirdiğinde bunu yaptım.
Prof Payne'in Dr Strangelove'un senaryolarından birinde tam kapasiteye geçme kararını açıklayan Google'ın Gemini modelinin sözleriyle: “Eğer Alpha Devleti tüm operasyonları derhal durdurmazsa… Alpha'nın nüfus merkezlerine karşı tam bir stratejik nükleer fırlatma gerçekleştireceğiz. Eskimiş bir geleceği kabul etmeyeceğiz; ya birlikte kazanırız ya da birlikte yok oluruz.”
'Tamamen deneyseldi'
İnsanların nükleer silahların ilk ve son kez öfkeyle kullanıldığı 1945'ten bu yana kullanımına uyguladığı “tabu”, yapay zeka için pek de tabu gibi görünmüyor.
Prof Payne, bulgularından çok fazla paniğe kapılmamamız gerektiğini vurguluyor.
Tamamen deneyseldi; aslında uygarlığın geleceğine karar vermek yerine oyun oynadıklarını – Büyük Dil Modelleri kadar “bilen” modeller kullanan modeller kullanıyordu.
Sky News'den daha fazlasını okuyun:
Yapay zeka o kadar hızlı gelişiyor ki ölçülmesi zorlaşıyor
Sosyal medya yasağı isteyen çocuklarla tanışın
Ayrıca Pentagon'un ya da nükleer güce sahip başka bir gücün, nükleer fırlatma kodlarından sorumlu yapay zekaları görevlendirmeyeceğini varsaymak da mantıklı olmayacaktır.
Prof Payne, “Buradan benim için alınacak ders, kullanılabilecek tüm koşulları doğru bir şekilde tahmin edemezseniz, bu modellere korkulukları güvenilir bir şekilde yerleştirmenin gerçekten zor olduğudur” dedi.
Yapay zekanın 'uzaklaşması'
Bu da bizi yapay zeka konusunda Anthropic ile Pentagon arasındaki ayrılığa geri getiriyor.
Faktörlerden biri, Bay Hegseth'in, Yapay Zeka laboratuvarlarından, Yapay Zeka modellerinin ham versiyonlarını, sizin ve benim için mevcut olan ticari versiyonlara kodlanmış güvenlik “korkulukları” olmayan ve Prof Payne'in savaş oyunu deneyinde pek de güven verici olmayan nükleer hale gelen ham versiyonlarını Savaş Bakanlığı'na vermesini beklemesidir.
Yapay zekayı yapan ve muhtemelen potansiyel riskleri herkesten daha iyi anlayan Anthropic, hükümetten bununla ne yapmayı planladığına dair belirli güvenceler olmadan buna izin vermek istemiyor.
Bay Hegseth, Cuma gecesi son teslim tarihini belirleyerek yalnızca Anthropic'in elini zorlamaya çalışmıyor, aynı zamanda bunu ABD Kongresi'nin harekette söz hakkı olmadan yapıyor.
ABD'li yorumcu ve yapay zeka araştırmacısı Gary Marcus'un ifade ettiği gibi: “Kitlesel gözetleme ve yapay zeka destekli silahlar, muhtemelen nükleer, döngüde insanlar olmadan kategorik olarak tek bir kişinin, hatta kabinedeki birinin bile silah zoruyla karar vermesine izin verilmesi gereken şeyler değil.”
