Yapay zeka, İran savaşında ABD'ye ölümcül bir avantaj sağlıyor olabilir – ancak tehlikeler de var | Bilim, İklim ve Teknoloji Haberleri
Bilim kurguyu unutun. Savaşta yapay zekanın çağı geldi.
İsrail yapay zeka sistemlerini kullandı Gazze Potansiyel hedefleri işaretlemek ve operasyonların önceliklendirilmesine yardımcı olmak.
Amerika Birleşik Devletleri ordusunun, Anthropic'in modeli Claude'u kullandığı bildirildi. Nicolas Maduro'yu Venezuela'dan kaçırma operasyonu.
Ve hatta sonra Antropik ABD yönetimiyle sorun yaşadı tam olarak nasıl yapay zeka Savaşta kullanılması gerektiğine rağmen, ABD ordusunun saldırılarında hala Claude'u kullandığı görülüyor. İran.
İran'da son durum: Trump, Starmer'ı İngiltere'nin tutumu nedeniyle eleştirdi
Uzmanlar, bugün Tahran üzerinde uçan füzelerin yapay zeka destekli sistemler tarafından hedef alınmasının oldukça muhtemel olduğunu söylüyor.
Newcastle Üniversitesi'nden siyasi coğrafya alanında kıdemli öğretim görevlisi Craig Jones, “Yapay zeka, 21. yüzyılda modern savaşın doğasını değiştiriyor. Sahip olduğu ve yaratacağı etkiyi abartmak zordur” diyor.
“Bu potansiyel olarak korkutucu bir senaryo.”
Korkunç olsun ya da olmasın, geri dönüş yok gibi görünüyor. ABD ordusunun yapay zekaya verdiği önemi anlamak istiyorsanız, kendisini Savaş Bakanı olarak tanımlayan savunma bakanı Pete Hegseth'in bu yılın başlarında tüm üst düzey askeri liderlere gönderdiği bir not, başlamak için iyi bir yer.
Bay Hegseth, “Savaş Bakanlığı'na, önden arkaya tüm bileşenlerde 'önce yapay zeka' savaş gücü haline gelerek Amerika'nın Askeri Yapay Zeka Hakimiyetini hızlandırması talimatını veriyorum” diye yazdı.
Bu bir deney değil, bu bir komut; yapay zekayı hızla ve geniş ölçekte benimsemek.
Veya Hegseth'in ifadesiyle: “Hız Kazanır”.
Ancak söz konusu senaryo akla ilk gelebilecek senaryo değil.
Evet, bazı alanlarda özerklik artıyor. İçinde UkraynaÖrneğin, bir insan operatörle iletişim kesildikten sonra bile göreve devam edebilen drone'lar var.
Ancak otonom katil robotların savaş alanında kol gezdiği aşamada değiliz.
Londra Queen Mary Üniversitesi'nde etik, teknoloji ve toplum profesörü David Leslie, “Henüz Terminatör çağında değiliz” diyor.
Yapay zekanın yerleştirildiği ve askeri jargonda “karar destek sistemleri” olarak bilinen sistemler, hedefleri işaretleyen, tehditleri sıralayan ve öncelikler öneren danışmanlardır.
Yapay zeka sistemleri uydu görüntülerini, ele geçirilen iletişimleri, lojistik verilerini ve sosyal medya akışlarını (binlerce, hatta yüzbinlerce girdi) ve yüzey desenlerini herhangi bir insan ekibinden çok daha hızlı bir şekilde bir araya getirebilir.
Buradaki fikir, savaş sisini ortadan kaldırmaya yardımcı olarak komutanların kaynakları en çok önemsedikleri yere odaklamalarına olanak tanırken, aynı zamanda potansiyel olarak yorgun, bunalmış, stresli insan askerlerden daha isabetli olmalarıdır.
Dr Jones, bunun sadece bir araç değil aynı zamanda karar vermenin yeni bir yolu olduğu anlamına geldiğini söylüyor.
“Yapay zeka, kendi hayatlarımızda da gördüğümüz gibi, daha çok bir altyapıya benziyor” diyor. “Sistemin içine yerleştirilmiş.”
“Birkaç yıldır yaptığımız gözetimi toplama yeteneğine sahibiz.
“Fakat artık yapay zeka buna göre hareket etme, İran'ın liderini öldürme, ciddi düşmanları ve ciddi düşmanları ortadan kaldırma ve onları daha önce bulunmadıkları beklenmedik şekillerde bulma konusunda istikrar sağlıyor.”
'Çok ikna edici bir araç'
Profesör Leslie, yeni sistemlerin askeri açıdan son derece yetenekli olduğu konusunda hemfikir.
“Bu yükselişi hızlandıran şey hız yarışıdır” diyor. “Karar verme döngülerini daha hızlı hale getirmek, ölümcüllüğün askeri avantajını getiren şeydir.”
Karar destek sistemlerinin önemli bir özelliği yapay zekanın düğmeye basmamasıdır. Bir insan bunu yapar. Askeri yapay zeka hakkındaki tartışmaların temel güvencesi bu oldu. Her zaman “döngüde bir insan” vardır.
Gibi OpenAIyapan şirket SohbetGPTPentagon'a yapay zeka tedarik etmek için bir ortaklık duyurduktan sonra şunu ifade etti: “Güvenlik ve uyum araştırmacılarını döngüye dahil ederek, hükümete yardımcı olan ileri konuşlandırılmış OpenAI mühendislerini temize çıkaracağız.”
OpenAI ayrıca Pentagon ile teknolojisinin üç “kırmızı çizgiyi” aşacak şekilde kullanılmayacağı konusunda anlaşmaya vardığını vurguladı: kitlesel yurt içi gözetleme, doğrudan otonom silah sistemleri ve yüksek riskli otomatik kararlar.
Ancak döngüde bir insan olsa bile geriye bir soru kalıyor.
Devamını oku:
Araştırmaya göre yapay zeka savaş oyunlarında 'nükleer olmaya' istekli
Claude Opus 4.6: Bu yapay zeka 'otomat makinesi testini' geçti
Bir savaşta savaşırken, bir insan gerçekten her kararı bir yapay zekadan kontrol edebilir mi? Zaman sıkıştırıldığında ve bilgi eksik olduğunda “insan gözetimi” gerçekte ne anlama gelir?
Dr Jones, “İnsanlar teknik olarak döngünün içindedir” diyor.
“Bence bu, etkili karar alma gücüne sahip olacak ve tam olarak ne olduğunu denetleyecek kadar döngünün içinde oldukları anlamına gelmiyor. Yapay zeka, karar veren insanlar için çok ikna edici bir araç.”
Veya Profesör Leslie'nin ifade ettiği gibi: “Gerçekten potansiyel olarak büyük bir tehlikeyle karşı karşıyayız: hız nedeniyle, bu sistemler tarafından ortaya konan tavsiyeleri değerlendirmek için aktif insani, kritik insan katılımına sahip değilsiniz.”
Ve sonra yapay zekanın kendi yanılabilirliği sorunu var.
Devamını oku:
Başbakan, İngiltere'nin Kıbrıs'ta HMS Dragon konuşlandıracağını doğruladı
İran Soru-Cevap: Trump neden hızlı bir zafer ilan etmeye çalışabilir?
Sky News tarafından yapılan testler, eğer tavuk beklendiği gibi görünmüyorsa ne Claude ne de ChatGPT'nin bir tavuğun kaç bacağı olduğunu söyleyemediğini ortaya çıkardı.
Dahası yapay zeka, açıkça yanlış olmasına rağmen bunun doğru olduğu konusunda ısrar etti.
Örnek, benzer başarısızlıkların düzinelerce örneğini gösteren bir makaleden alınmıştır. Başyazar Anh Vo, “Bu, hayvan bacaklarının tek seferlik bir örneği değil” dedi.
Vo, “Sorun, veri türleri ve görevler genelinde geneldir” diye ekledi.
Bunun nedeni, yapay zekanın dünyayı gerçekten insani anlamda görmemesi; geçmiş verilere dayanarak en olası olanı tahmin etmeleridir.
Çoğu zaman bu tür istatistiksel akıl yürütme şaşırtıcı derecede etkilidir. Dünya olasılıkların işe yaramasını sağlayacak kadar öngörülebilir.
Ancak bazı ortamlar doğası gereği öngörülemez ve risklidir.
Bu teknolojinin sınırlarını akla gelebilecek en acımasız koşullarda test ediyoruz.
