Suni zekayı ve risklerini anlamanın dört değişik yolu

Suni zeka söz mevzusu olduğunda, dünya görüşleri çatışır.
Kimi zaman suni zeka dünyasında iki büyük fark bulunduğunu düşünüyorum. Birincisi, normal olarak, tıptan bilime kadar her alanda gelişmiş AI sistemleri üstünde çalışan araştırmacıların bir yıkım getirip getirmeyeceğidir.
Sadece öteki – muhtemelen daha mühim – sual, suni zekanın mühim olup olmadığıdır. ya da bir halde toplumsal bir saplantı geliştirdiğimiz, sonunda önemsiz başka bir teknoloji parçası. Bu yüzden, bazı gelişmiş söyleşi robotlarımız var, şüpheci görüş. Bu, dünyamızın sonunu getirmeyecek – fakat onu daha iyi hale de getirmeyecek.
Kimi zaman gördüğüm bir karşılaştırma kripto para birimi ile. Birkaç yıl ilkin, teknoloji dünyasındaki birçok şahıs, merkezi olmayan para birimlerinin yaşadığımız dünyayı temelden değiştireceğine ikna olmuştu. Sadece bu büyük seviyede bu şekilde değil bu sebeple dolandırıcılığın önlenmesi benzer biçimde insanların önemsediği pek fazlaca şeyin olduğu ortaya çıktı. Kullanım kolaylığı aslına bakarsak kriptonun çökmesi ihtiyaç duyulan merkezileşmeye bağlıdır.
Silikon Vadisi, mevcut problemininin dünya tarihindeki en büyük antak kalma bulunduğunu söylediğinde, doğru cevap çoğu zaman sıhhatli bir şüpheciliktir. Bu saplantı, sonunda bazı havalı yeni işlerin temeli olabilir, emek verme ve yaşama şeklimizde değişikliklere katkıda bulunabilir ve neredeyse kesinlikle bazı insanları fazlaca varlıklı yapmış olacaktır. Sadece yeni teknolojilerin bir çok, savunucularının iddia etmiş olduğu benzer biçimde dünya üstünde neredeyse dönüştürücü bir etkiye haiz değil.
AI’nın bir sonraki kripto para birimi olacağını düşünmüyorum. Büyük dil modellerine dayalı ChatGPT benzer biçimde teknolojiler, kripto para birimlerinin şimdiye kadar haiz olduğundan fazlaca daha süratli benimsenmiştir. Mühim seviyede daha çok işi değiştirirler ve değiştirirler. Son beş yılda bu alanda kaydedilen ilerleme şaşırtıcı. Gene de, burada şüpheci bakış açısının hakkını vermek isterim; Bir çok vakit, bizlere bir şeyin fazlaca mühim olduğu söylendiğinde, aslına bakarsak öyleki değildir.
AI hakkında düşünmenin dört çeyreği
Buna dayanarak, suni zekaya yönelik tutum yelpazesi dört geniş kategoriye ayrılabilir.
Son aşama kuvvetli suni zekanın ufukta göründüğüne ve dünyamızı değiştireceğine inanan insanoğlu var. Bazıları bunun olacağını düşünüyor ve bunun fazlaca fakat fazlaca iyi bir şey olacağına inanıyor.
Marc Andreessen yakın tarihindeki bir blog gönderisinde “Her çocuğun sonsuz sabırlı, sonsuz şefkatli, sonsuz bilgili ve sonsuz yardımsever bir suni zeka öğretmeni olacak” diye yazdı.
Her bilim insanının, bilimsel araştırma ve başarı kapsamını büyük seviyede genişletecek bir suni zeka asistanı/işbirlikçisi/ortağı olacaktır. Her sanatçı, her mühendis, her iş adamı, her tabip, her hemşire kendi dünyasında aynı şeyi yaşayacak. …
Suni zeka muhtemelen uygarlığımızın şimdiye kadar yarattığı en mühim – ve en büyük – şey, kesinlikle elektrik ve mikroçiplerle aynı düzeyde ve muhtemelen daha da iyi. …
Suni zekanın gelişmesi ve yayılması korkmamız ihtiyaç duyulan bir risk olmaktan fazlaca, kendimize, çocuklarımıza ve geleceğimize karşı haiz olduğumuz etik bir yükümlülüktür.
AI ile fazlaca daha iyi bir dünyada yaşamalıyız ve şimdi bu mümkün.
Buna yelpazenin “Büyük olacak ve iyi olacak” köşesi diyelim. Bunu, mesela, son anketinde makine öğrenimi araştırmacılarının yarısının suni zekanın insan soyunun tükenmesine yol açma ihtimalinin yüksek bulunduğunu söyleyen AI Impacts’ten Katja Grace ile karşılaştırın. Kısa sürede Time’da şöyleki yazmıştı: “Suni zekadaki ilerlemeler, insanoğlunun çıkarlarına aykırı hedeflere haiz, insanüstü derecede parlak zeka suni ‘insanların’ yaratılmasına ve bu tarz şeyleri özerk bir halde takip etme becerisine yol açabilir.”
(Ortaya, “Suni zeka hizalama araştırmasında atılımlar yapılmadıkça… kuvvetli güvenlik garantilerimiz yok. Bilinmeyen şey, oluşabilecek hasarın ciddiyetidir” diyen suni zeka öncüsü Yoshua Bengio’yu yerleştirebilirsiniz. yanlış hizalamadan oluşur (ve yanlış hizalamanın özelliklerine bağlıdır).”)
Sonrasında “AI dünyamızı pek değiştirmeyecek – tüm bu süper zeka saçmalıkları – fakat gene de fena olacak” çeyreği var. Birçok AI etik araştırmacısı, Future of Life Institute’un son mektubuna cevap olarak, “‘Müreffeh’ yada ‘potansiyel olarak yıkım’ bir gelecek vaat eden suni zeka destekli bir ütopya yada kıyametle dikkatimizi dağıtmak tehlikelidir.” son aşama kuvvetli sistemlerin eğitimine ara vermek için. Bu süper zeka şüphecileri, suni zekanın en aşırı, varoluşsal sonuçlarına odaklanmanın bizi günümüz teknolojisinin mümkün kıldığı işçilerin sömürüsünden ve önyargısından uzaklaştıracağını savundu.
Son olarak, “AI dünyamızı pek değiştirmeyecek – tüm bu süper zeka şeyleri saçmalık – fakat iyi olacak” çeyreği var, bu da birçok insanoğlunun programcılar için AI araçları geliştirmeye çalmış olduğu. Bu köşede bulunan konuştuğum birçok şahıs, süper zeka ve önyargı ile alakalı endişelerin yada işçi sömürüsü ile alakalı endişelerin abartıldığından kaygı ediyor. Suni zeka öteki birçok teknoloji benzer biçimde olacaktır: İyi bir halde kullanırsak iyi olur, ki bir çok vakit kullanırız.
karşılıklı konuşmak
AI ile ilgili konuşmalarda, çoğu zaman birbirimizin yanından konuşuyormuşuz benzer biçimde geliyor ve bence yukarıda önerdiğim dört çeyrek fotoğraf bunun nedenini daha net hale getiriyor. Suni zekanın potansiyel olarak dünyayı sarsan büyük bir şey olacağına inanan insanların konuşacak fazlaca şeyi var.
Suni zeka hakikaten iyilik için büyük bir güç olacaksa, insan güçlerini artıracaksa ve yaşam tarzımızın her alanında büyük iyileştirmeler yapacaksa, izin verilirse onun ilerlemelerinden yararlanabilecek milyonlarca insanoğlunun acı çekmesi riski vardır. güvenlik endişelerini gidermek ve gereksiz yere ölmek için fazlaca ertelendi. Suni zeka geliştirmenin büyük, dünyayı değiştiren riskler oluşturduğuna inananlar, iyimserlere bu risklerin böylesine kuvvetli bir hızla gelişen teknolojinin gelişimini yavaşlatmanın hakikaten çok önemli maliyetini haklı çıkaracak kadar ciddi bulunduğunu göstermelidir. Suni zeka dünyayı değiştiren büyük bir şeyse, yapmak istediğimiz üst düzey toplumsal münakaşa bununla ilgili dünyayı daha iyiye doğru değiştirdiği noktaya güvenli bir halde ulaşmanın en iyi yolu.
Sadece birçok insan, suni zekanın büyük bir antak kalma olacağına bile ikna olmadı ve hızlanması mı yoksa yavaşlaması mı gerektiği mevzusundaki tartışmayı kafa karıştırıcı buluyor. Onların bakış açısına bakılırsa, ufukta dünyayı değiştirecek bir haber yok ve mevcut suni zeka sistemlerini agresif bir halde düzenlemeli (çoğunlukla kötüyse ve aslolan hedefimiz kullanımlarını sınırlamaksa) yada mevcut suni zeka sistemlerini kendi kendine bırakmalıyız. (Eğer durum buysa). çoğunlukla iyidir ve bilhassa kullanımlarını teşvik etmek istiyoruz).
Bununla beraber, insanoğlu süper parlak zeka sistemleri güvenli bir halde denetim etmeyi amaçlayan eylemlerle cevap verdiğinde şaşkına dönüyorlar. Andreessen’in suni zekanın çok önemli potansiyeli ile alakalı iddiaları, onun endişelerini gidermiyor, Grace’in hepimizi öldürebilecek bir suni zeka silahlanma yarışından uzak durmamız gerektiği şeklindeki argümanı da.
Kanımca, AI ile alakalı toplumsal münakaşanın iyi gitmesi için hepimiz birazcık daha belirsizlik kullanabilir. AI fazlaca süratli ilerlerken, orada bir şey olup olmadığından güvenilir olmak hakikaten zor. Mevcut tekniklerimizin şimdiye kadar niçin bu kadar iyi çalmış olduğu ve iyileştirmeler görmeye ne kadar devam edeceğimiz mevzusunda derinden kafamız karıştı. Ufukta hangi atılımların bulunduğunu kimse tahmin edemez. Andreessen’in görkemli ütopyası bana gerçek bir olasılık benzer biçimde görünüyor. Tam bir yıkım benzer biçimde. Aynı şey, büyük yeni atılımlar olmadan geçen nispeten tek düze bir on yıl de ilgilendiriyor.
Hepimiz, AI’da yürüdüğümüz arazinin belirsiz olmasıyla birlikte kafa karıştırıcı bulunduğunu birazcık daha kabul ettiğimizde, zıt amaçlardan birazcık daha azca konuştuğumuzu görebilir.