AI risklerini virüs araştırması tehlikesine karşı tartmak
ABD ne vakit yetersiz tepki veriyor ve ne vakit aşırı tepki veriyor?
11 Eylül’de 3.000 kişinin öldürülmesinin peşinden ABD iki ülkeyi işgal etti ve bu, Irak ve Afganistan’daki Amerikan ve bağlaşık askerleri ve siviller de dahil olmak suretiyle yüzbinlerce insanoğlunun hayatına mal olan multitrilyon dolarlık işgallere yol açtı. ABD, bunun tekrar olmasını önlemek için hava yolculuğunun işleyişinde kalıcı, ekonomik açıdan maliyetli ve ciddi şekilde elverişsiz değişimler yapmış oldu.
1 milyondan fazla Amerikalı Covid-19’dan öldü ve pandeminin ilk aylarında ülke, yayılmasını azaltmak için büyük, yaşamı değiştiren değişimler yaptıysa da, tekrar asla olmamasını sağlamak için kesinlikle hiçbir şey yapmadı. . (Bir ihtimal bu yüzünden pandeminin ilk aylarındaki büyük, yaşamı değiştiren değişimler; o denli popülerliğini yitirdiler ki, başka bir salgından kaçınmamız ihtiyaç duyulan ikazlar çoğu zaman düşmanca bir cevap alıyor.)
Daha direkt olarak, bu tür çalışmaların Kovid’e niçin olabileceğine dair meşru endişeler olsa bile, ABD hala daha ölümcül ve daha bulaşıcı hastalıklar yapmak için araştırmalar yürütüyor. Ve koronavirüsün çok büyük insani ve ekonomik bedeline karşın Kurultay, bir sonraki pandeminin etkilerini köreltebilecek hazırlık çalışmalarını finanse etmek için oldukça azca şey yapmış oldu.
AI’yı ciddiye almak
Tüm bu tarz şeyleri suni zeka olarak düşünüyordum ve yeterince kuvvetli sistemlerin hepimizi öldürme olasılığı ansızın ortaya çıktı. Makine öğrenimi araştırmalarının önde gelen isimlerinin yanı sıra Elon Musk şeklinde önde gelen teknoloji figürleri tarafınca imzalanan açık bir mektup, OpenAI’nin yeni GPT-4’ünden daha kuvvetli modellerin oluşturulmasına altı aylık bir ara verilmesi çağrısında bulunmuş oldu. Time dergisinde, AI güvenliği mutlakiyetçisi Eliezer Yudkowsky, mektubun yeterince ileri gitmediğini ve AI’yı nükleer silahlardan daha tehlikeli olarak ele alan kalıcı, mecburi bir internasyonal moratoryuma ihtiyacımız bulunduğunu savundu.
Geçen ay oldukça çarpıcı bir CBS röportajında, son aşama saygı duyulan bir kıdemli AI araştırmacısı olan Geoff Hinton’a inanmayan bir görüşmeci tarafınca soruldu: “Sizce AI’nın insanlığı yok etme şansı nedir?” Derin öğrenme mevzusundaki öncü emekleri ChatGPT şeklinde büyük dil modellerinin mümkün olmasına destek olan Hinton, “Akıl almaz değil” yanıtını verdi.
30 Mart’ta Fox News muhabiri Peter Doocy bir satır oku Yudkowsky’nin Time haberinden Beyaz Saray basın sekreteri Karine Jean-Pierre’e: “’Dünyadaki hepimiz kelimenin tam anlamıyla ölecek.’ Bunun kulağa hoş gelmediğini kabul ediyor musunuz?’” Jean-Pierre gerilmiş bir kahkahayla her insana Beyaz Saray’ın güvenli suni zeka gelişimi için bir planı olduğuna dair güvence verdi.
biyolojiyi unutma
Yeterince kuvvetli AI sistemlerinin bildiğimiz şekliyle uygarlığı sona erdirebileceğini senelerce tartıştım. Bir anlamda, hak ettiğini düşündüğüm ana akım duruşma ve açık münakaşa verildiğini görmek sevinç verici.
Fakat bununla birlikte gizemli. Patojenleri daha kuvvetli hale getirmeyi amaçlayan araştırmalar, bildiğimiz uygarlığın da sonunu getirebilir! Gene de bu olasılığa tepkimiz büyük seviyede toplu bir omuz silkme oldu.
Bu araştırmayı çevreleyen ABD düzenlemelerini daha net ve daha iyi hale getirmek için kahramanca çalışan insanoğlu var, sadece bunu büyük seviyede arka planda yapıyorlar, bu çıkarlarla ilgili bir probleminin esin vermesi beklenebilecek halkın itirazı ve incelemesi olmadan.
Suni zeka gelişimini yavaşlatmak, üstünde çalışan oldukça sayıda şirket ve pazarın potansiyel boyutu göz önüne alındığında zor, tartışmalı ve karmaşık olacak olsa da, patojenler üstünde tehlikeli işlev kazanımı araştırması icra eden yalnızca birkaç laboratuvar var. pandemi potansiyeli. Bu, o işi kapatmayı oldukça daha kolay hale getirmeli – ya da en azından öyleki düşünürsünüz.
Varoluşsal risklerle zar oynamak
Sonucunda – ve bu {hiç de} tatminkar değil, bence yörüngemiz ve önceliklerimizdeki bu oldukça mühim değişimler çoğu zaman rastgele şansa bağlı.
Tesadüfen birisi 11 Eylül hava korsanlarını durdurmak için zamanında keşfetseydi, bugün içinde yaşadığımız dünya kökten değişik görünürdü.
Rastlantı eseri, Covid-19 başladığında değişik kişiler kilit yönetim rollerinde yer alsaydı, kökenleri hakkında oldukça daha çok şey bilirdik ve muhtemelen daha iyi laboratuvar güvenliği politikası talep etmeye oldukça daha istekli olurduk.
Ve AI’yı yavaşlatma hareketinin buradan nereye gittiğine erişince, bunların bir çok bana bununla birlikte şansa kalmış şeklinde geliyor. Hangi mesajlar halkın dikkatini çeker? Kayda kıymet güvenlik korkuları var mı ve bunlar neyle karşı karşıya olduğumuzun resmini netleştiriyor mu yoksa daha mı bulanıklaştırıyor?
Varoluşsal riske iyi mi tepki verdiğimizin şansa bağlı olmadığı ya da halkın ve medyanın dikkatini çekmek için ne bulunduğunun şansa bağlı olmadığı bir dünyada yaşamayı oldukça isterim. tüm dünyamızın güvenliğine yönelik risklerin, manşetlere çıkıp çıkmadığına bakılmaksızın ciddi bir incelemeye doğal olarak tutulduğu yer. Sadece pratikte, ister suni zeka ister biyoloji üstüne olsun, dünyayı değiştiren tehlikeli araştırmalar kamuoyunun incelemesine girerse talihli görünüyoruz.
Bu hikayenin bir versiyonu ilk olarak Future Perfect haber bülteninde gösterildi. Abone olmak için buradan kaydolun!