Son olarak, AI şirketlerini denetim altında tutmak için gerçekçi bir yol haritası

AI düzenleyicilerinin süratli hareket etme ve bir şeyleri yok etme zamanı.
Yeni AI sistemleri bizlere o denli süratli ve öfkeli bir halde geliyor ki, onları güvende olduklarından güvenli olacak kadar uzun süre uzak tutmak için yapabileceğimiz hiçbir şey yokmuş benzer biçimde görünebilir.
Fakat bu doğru değil. Düzenleyicilerin, teknoloji şirketlerinin riskli sistemlerin sınıflandırmasını kaldırmasını önlemek için şimdi yapabileceği somut şeyler var.
Yeni bir raporda, suni zekanın toplumsal tesirini inceleyen bir araştırma merkezi olan AI Now Enstitüsü, siyaset yapıcıların hangi adımları atabileceğini detaylandıran bir yol haritası sunuyor. Yazarlar Amba Kak ve Sarah Myers West’in hükümet deneyimi yardımıyla, canlandırıcı pragmatik ve eyleme geçirilebilir. Her ikisi de Federal Tecim Komisyonu Başkanı Lina Khan’ın eski danışmanları, düzenleyicilerin bugün gerçekçi olarak neler yapabileceğine odaklanıyor.
Buradaki en büyük argüman, AI hasarını azaltmak istiyorsak, Big Tech’in güç konsantrasyonunu azaltmamız gerektiğidir.
Son teknoloji AI sistemleri oluşturmak için kaynaklara (oldukca büyük oranda veri, çok önemli oranda data işlem gücü) ihtiyacınız var ve şu anda oldukca azca şirket bu kaynaklara haiz. Bu firmalar, hükümeti etkilemek için kullandıkları milyonları biriktiriyor; Ek olarak “başarısız olamayacak kadar büyük” hale geliyorlar ve hükümetler bile hizmetler için onlara bağımlı hale geliyor.
Dolayısıyla, birkaç firmanın hepimiz için şartları belirleyebildiği bir durumla karşılaşıyoruz: Son aşama tutarlı suni zeka sistemleri kurabilir ve peşinden bu tarz şeyleri oldukca azca hesap verebilirlik ile istedikleri şekilde ve istedikleri süre yayınlayabilirler.
Raporda, “Bir avuç hususi erkek oyuncu, suni zekayı eleştiri bir toplumsal altyapı olarak geliştirip yayarken, millet devletlerle rekabet edecek güç ve kaynakları bir araya getirdi.”
Yazarların vurguladığı şey, kamuoyunda gizlenen saçmalık, demokratik olarak seçilmemiş bazı aktörlere bilmeden ne kadar güç devrettiğimiz.
ChatGPT ve GPT-4 destekli Bing benzer biçimde sistemlerin – demokratik toplumu paramparça edebilecek dezenformasyon yayma riski benzer biçimde – risklerini düşündüğünüzde, OpenAI ve Microsoft benzer biçimde şirketlerin kendi takdirlerine bakılırsa bu sistemlerin sınıflandırmasını kaldırabilmeleri çılgınca. Mesela OpenAI’nin misyonu, “suni genel zekanın tüm insanlığa yarar sağlamasını sağlamaktır” – sadece şu ana kadar tüm insanlığa yarar sağlamanın ne anlama geldiğini tanımlamak halka değil, şirkete kalmıştır.
Rapor, kurumsal gücü geri alma zamanının geldiğini söylüyor ve tam da bunu yapmak için bazı stratejiler öneriyor. Onları sökelim.
AI üstünde denetim elde etmek için somut stratejiler
Mevcut durumun saçmalıklarından biri de, suni zeka sistemleri ortalığı kasıp kavurduğunda, hasarı belgeleme ve değişiklik için zorlama görevinin araştırmacılar, araştırmacı gazeteciler ve kamuoyunda olması. Fakat bu, toplumun daima ağır bir yük taşımış olduğu ve peşinden yetişmek için savaşım etmiş olduğu anlamına gelir.
Bundan dolayı, raporun temel tavsiyesi, zarar vermediklerini kanıtlama yükünü şirketlerin kendilerine yükleyen politikalar oluşturmaktır. Tıpkı bir ilaç üreticisinin FDA’ya yeni bir ilacın piyasaya sürülecek kadar güvenli bulunduğunu kanıtlaması gerektiği benzer biçimde, teknoloji şirketleri de suni zeka sistemlerinin piyasaya sürmeden ilkin güvenli bulunduğunu kanıtlamak zorunda.
Bu, dış değerlendiricilerin algoritmik bir sistemin iyi mi çalıştığına dair şeffaflık elde etmek ve herhangi bir önyargıyı ortadan kaldırmak için kaputun altına bakmış olduğu, gelişen “denetimler” endüstrisi benzer biçimde suni zeka ortamını iyileştirmeye yönelik mevcut çabalara bakılırsa anlamlı bir gelişme olacaktır. güvenlik sorunları. Bu iyi bir hamle, sadece rapor bunun birincil siyaset tepkisi olmaması icap ettiğini söylüyor şu sebeple bu bizi “önyargıyı” tamamen teknik bir çözümle beraber tamamen teknik bir mesele olarak düşünmeye yönlendiriyor.
Sadece önyargı, suni zekanın gerçek dünyada iyi mi kullanıldığıyla da ilgilidir. Yüz tanımayı ele alalım. Zoé Samudzi 2019’da “Kaçınılmaz olarak bizlere karşı silahlanmaya devam edecek olan yazılımlara siyahları eşit derecede görünür kılmak toplumsal ilerleme değildir” dedi.
Gene, rapor bizlere apaçık olması ihtiyaç duyulan sadece bir çok süre gözden kaçan bir şeyi hatırlatıyor. Bir AI aracını olduğu benzer biçimde kabul etmek ve onu iyi mi daha adil hale getirebileceğimizi sormak yerine, şunu sorarak başlamalıyız: Bu AI aracı asla var olmalı mı? Bazı durumlarda yanıt hayır olacaktır ve bu durumda doğru yanıt denetim değil, moratoryum yada yasak olacaktır. Sözde bilime dayalı “duygu idrak etme” yada “algoritmik gaydar” teknolojileri kullanılmamalı sözgelişi nokta.
Teknoloji endüstrisi çeviktir ve çoğu zaman hedefleriyle uyumlu hale getirmek için taktikler değiştirir. Yüz tanıma yasakları çağrısında bulunan bir koro ile karşılaştığında gördüğümüz benzer biçimde, kimi zaman düzenlemeye karşı çıkmaktan onu desteklediğini iddia etmeye kadar gider. Microsoft benzer biçimde firmalar, önlemek için tasarlanmış yumuşak adımları destekledi. daha yürekli düzeltim; Polisin kullanımını tamamen yasaklamaktan oldukca daha zayıf bir duruş olarak, hızla gelişen teknolojinin incelemesini mecburi kıldılar.
Bundan dolayı, rapora bakılırsa, düzenleyiciler bu tür hareketler için tetikte olmalı ve yaklaşımları sanayi tarafınca benimsenir yada aşınırsa yön değiştirmeye hazır olmalıdır.
Düzenleyicilerin ek olarak suni zeka üstünde denetim elde etmek için yaratıcı olmaları ve siyaset vasıta kutusundaki değişik araçları kullanmaları gerekir, sadece bu araçlar çoğu zaman beraber kullanılmaz.
İnsanlar “AI politikaları” hakkında konuşurken kimi zaman bunların veri koruma benzer biçimde öteki politikalardan değişik bulunduğunu düşünürler. Sadece “AI”, yalnızca verilerin, algoritmaların ve data işlem gücünün bir karışımıdır. Doğrusu veri politikası Dır-dir AI politikası.
Bunu hatırladığımızda, veri toplanmasını sınırlayan yaklaşımları yalnızca tüketici gizliliğini korumak için değil, bununla birlikte en riskli AI uygulamalarından bazılarını hafifletecek mekanizmalar olarak da değerlendirebiliriz. Veri dağıtımını sınırlayın ve inşa edilebilecekleri sınırlayın.
Aynı şekilde, AI hakkında rekabet hukuku yada antitröst yasası ile aynı anda konuşmaya alışkın olmayabiliriz. Sadece, kitaplarda esasen antitröst yasalarımız var ve Biden yönetimi, gücün AI şirketlerinde yoğunlaşmasıyla savaşım etmek için bu yasaları cesurca ve becerikli bir halde kullanmaya hazır olduklarının sinyalini verdi.
Netice olarak, raporun ortaya koyduğu en büyük gizli saklı gerçek, hangi teknolojileri ne süre kullandığımızın kontrolünün insanların elinde olduğu. Son yıllarda, yüz tanıma teknolojisine moratoryum ve yasaklar koyduk; Geçmişte de bir moratoryum düzenleyerek insan genetiği alanında net yasaklar oluşturmuştuk. Teknolojik kaçınılmazlık bir efsanedir.
Rapor, “Suni zeka mevzusunda kaçınılmaz hiçbir şey yok” diyor. “Yalnızca AI’yı ilerlemenin eşanlamlısı olarak görmeyi bıraktığımızda, bu teknolojilerin yörüngesi üstünde genel denetim sağlayabiliriz.”