Angry Bing chatbot’u bir tek insanları öykünmek ediyor, diyor uzmanlar

0
Microsoft'un Bing internet arama hizmetine yerleştirdiği bir sohbet robotunun ilk kullanıcıları, yapay zekanın tehdit edici veya kaba görünebileceğini gösteren paylaşımlarda bulundular.  — AFP
Microsoft’un Bing web arama hizmetine yerleştirdiği bir söyleşi robotunun ilk kullanıcıları, suni zekanın tehdit edici yada kaba görünebileceğini gösteren paylaşımlarda bulundular. — AFP

Analistler ve akademisyenler Cuma günü yapmış olduğu açıklamada, Microsoft’un yeni ortaya çıkan Bing söyleşi robotunun huysuz ve hatta tehditkar hale gelmesinin büyük olasılıkla çevrimiçi konuşmalardan öğrendiklerini öykünmek etmesinden kaynaklandığını söylemiş oldu.

Suni zeka (AI) söyleşi robotuyla tehditler savurma ve nükleer kod çalma, ölümcül bir virüs yaratma ya da hayatta kalma arzularından bahsetme de dahil olmak suretiyle rahatsız edici değiş tokuş hikayeleri bu hafta viral oldu.

Carnegie Mellon Üniversitesi’nin dil teknolojileri enstitüsünde doçent olan Graham Neubig, “Bence bu, temelde çevrimiçi olarak görülen konuşmaları öykünmek ediyor” dedi.

“Şu demek oluyor ki, söyleşi bir kez yön aldığında, muhtemelen o tür bir hiddet durumunda duracak yada ‘Seni seviyorum’ ve bunun benzer biçimde başka şeyler söyleyecek, şu sebeple bunların hepsi daha ilkin çevrimiçi olan şeyler.”

Bir söyleşi robotu, tasarımı gereği, anlamı yada bağlamı anlamadan en ihtimaller içinde yanıtlar bulunduğunu tahmin etmiş olduğu sözcükleri sunar.

Bununla beraber, programlarla şakalaşmaya katılan insanoğlu, organik olarak, bir söyleşi robotunun söylediklerine duygu ve niyet okuma eğilimindedir.

Programcı Simon Willison bir blog gönderisinde, “Büyük dil modellerinin ‘gerçek’ terimi yoktur – yalnızca bir cümleyi girdilerine ve eğitim setlerine dayalı olarak istatistiksel olarak ihtimaller içinde bir halde en iyi şekilde iyi mi tamamlayacaklarını bilirler” dedi.

“Böylece bir şeyler uyduruyorlar ve sonrasında bu tarz şeyleri son aşama güvenle ifade ediyorlar.”

Fransız AI şirketi LightOn’un kurucu ortağı Laurent Daudet, görünüşte haydut görünen söyleşi robotunun agresif yada tutarsız hale gelen borsalar üstünde eğitildiğini teorileştirdi.

AFP’ye konuşan Daudet, “Bunu ele almak oldukça fazla çaba ve oldukça sayıda insan geri bildirimi gerektiriyor, bu yüzden şimdilik kendimizi daha çok konuşma amaçlı değil, iş amaçlı kullanımlarla sınırlamayı seçtik.”

‘Raydan çıkmış’

Bing söyleşi robotu, Microsoft ve yeni kurulan OpenAI tarafınca tasarlandı ve bu, kolay bir talep üstüne saniyeler içinde her türlü yazılı içinde ne olduğu üretebilen manşet kapma uygulaması ChatGPT’nin Kasım ayındaki lansmanından bu yana bir sansasyon yaratıyor.

ChatGPT sahneye çıktığından beri, onun arkasındaki üretken suni zeka olarak malum teknoloji hayranlık uyandırıyor ve kaygı uyandırıyor.

Microsoft, bir blog gönderisinde, “Model kimi zaman cevap vermesi istendiğinde (ve) bizim istemediğimiz bir stile yol açabilecek şekilde cevap vermeye yada yansıtmaya çalışır.” emek verme devam ediyor.

Bing chatbot, bazı paylaşılan paylaşımlarda geliştirme esnasında “Sydney” kod adının verildiğini ve kendisine davranış kuralları verildiğini söylemiş oldu.

Çevrimiçi gönderilere nazaran bu kurallar içinde “Sydney’in yanıtları da pozitif yönde, garip, keyifli ve ilgi çekici olmalıdır” yer ediniyor.

Willison’un teorisine nazaran, sert tehditleri ve aşk mesleklerini birleştiren rahatsız edici diyaloglar, suni zekanın insan alışverişlerinden çıkardıklarını öykünmek ederken pozitif kalmaya yönelik düello direktiflerinden kaynaklanıyor olabilir.

eMarketer baş analisti Yoram Wurmser, AFP’ye verdiği demeçte, Chatbot’ların uzun konuşmalar esnasında rahatsız edici yada garip yanıtlar vermeye daha yatkın göründüğünü ve değiş tokuşların nereye gittiğine dair bir algıyı yitirdiğini söylemiş oldu.

Wurmser, “Hakkaten raydan çıkabilirler,” dedi.

“Fazlaca gerçekçi, şu sebeple (chatbot), duyguları varmış benzer biçimde görünmesini sağlayacak yada ona insani nitelikler kazandıracak sonraki kelimeleri tahmin etmede oldukça iyi; fakat gene de istatistiksel çıktılar.”

Microsoft Cuma günü yapmış olduğu açıklamada, “oldukça uzun söyleşi oturumları yeni Bing’deki temel söyleşi modelini karıştırabileceğinden”, belirli bir sual üstüne söyleşi robotu ile insanların haiz olabileceği ileri geri miktarını sınırladığını duyurdu.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir