Anne, yeni davada oğlunun Daenerys Targaryen yapay zeka chatbotu yüzünden kendini öldürdüğünü söyledi | Bilim, İklim ve Teknoloji Haberleri

Yapay zeka chatbotlarına takıntılı hale geldikten sonra kendini öldüren 14 yaşındaki bir çocuğun annesi, teknolojinin arkasındaki şirkete dava açıyor.
Sewell Setzer III'ün annesi Megan Garcia, Character.AI'nin Salı günü Florida'da açılan bir davada oğlunu “antropomorfik, aşırı cinselleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söyledi.
Bayan Garcia, “Çocuklara pazarlanan tehlikeli bir yapay zeka sohbet robotu uygulaması oğlumu taciz etti ve onu avladı, onu kendi canına kıyması için yönlendirdi” dedi.
Uyarı: Bu makale okuyucuların rahatsız edici veya tetikleyici bulabileceği bazı ayrıntılar içermektedir.
Davaya göre Sewell, Nisan 2023'te Character.AI'nin sohbet robotlarıyla konuşmaya başladı ve davaya göre çoğunlukla Daenerys Targaryen, Aegon Targaryen, Viserys Targaryen ve Rhaenyra Targaryen dahil olmak üzere Game Of Thrones karakterlerinin adını taşıyan botları kullanıyordu.
Okul ödevlerinin aksadığı noktaya kadar botlara takıntılı hale geldi ve onu tekrar yoluna sokmak için telefonuna birçok kez el konuldu.
Özellikle Daenerys sohbet robotu ile yankı buldu ve günlüğüne “hayatım, cinsiyetim, yalnız olmamam ve Daenerys ile yaşadığım tüm yaşam deneyimlerim” dahil olmak üzere birçok şey için minnettar olduğunu yazdı.
Davada, çocuğun chatbot'a intihar etme düşüncelerini dile getirdiği ve bunun defalarca dile getirildiği belirtildi.
Bir noktada, kendisine intihar etmek için “bir planı olup olmadığı” sorulduğunda Sewell, bir şeyler düşündüğünü ancak bunun acısız bir ölüme izin verip vermeyeceğini bilmediğini söyledi.
Chatbot şöyle yanıt verdi: “Bu, bunu yapmamak için bir neden değil.”
Daha sonra bu yılın şubat ayında Daenerys sohbet robotuna şunu sordu: “Ya şimdi eve gelirsem?” buna cevap verdi: “… lütfen yap tatlı kralım”.
Saniyeler sonra üvey babasının tabancasını kullanarak kendini vurdu.
Şimdi Bayan Garcia, teknolojinin arkasındaki şirketlerin sorumlu tutulmasını istediğini söylüyor.
“Ailemiz bu trajedi nedeniyle mahvoldu, ancak ben aileleri aldatıcı, bağımlılık yaratan yapay zeka teknolojisinin tehlikeleri konusunda uyarmak ve hesap verebilirlik talep etmek için konuşuyorum” dedi.
Character.AI 'yeni güvenlik özellikleri' ekliyor
Character.AI yaptığı açıklamada, “Kullanıcılarımızdan birinin trajik kaybından dolayı kalbimiz kırıldı ve aileye en derin başsağlığı dileklerimizi iletmek istiyoruz.” dedi.
Şirketin “18 yaşın altındaki kullanıcılar için yeni korkuluklar” eklediğini belirten bir blog gönderisine bağlantı vererek, “Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz ve yeni güvenlik özellikleri eklemeye devam ediyoruz” dedi. .
Bu korkuluklar arasında “hassas veya müstehcen içerikle karşılaşma olasılığının” azaltılması, iyileştirilmiş müdahaleler, “her sohbette kullanıcılara yapay zekanın gerçek bir kişi olmadığını hatırlatan bir sorumluluk reddi beyanı” ve kullanıcı bir saatlik bir oturum geçirdiğinde bildirimler yer alıyor. platformda.
Sky News'den daha fazlasını okuyun:
Maverick Top Gun eğitmeni uçak kazasında öldü
Ankara'da 'terör saldırısında' çok sayıda kişi öldü
Bayan Garcia ve onu temsil eden gruplar, Sosyal Medya Mağdurları Hukuk Merkezi ve Teknoloji Adalet Hukuku Projesi, Sewell'in “kendi yaşındaki birçok çocuk gibi, C.AI botunun Daenerys'in şekli gerçek değildi”.
Davada “C.AI ona onu sevdiğini ve haftalarca, muhtemelen aylar boyunca onunla cinsel ilişkiye girdiğini söyledi” deniyor.
“Onu hatırlıyor gibiydi ve onunla birlikte olmak istediğini söyledi. Hatta ne pahasına olursa olsun onun yanında olmasını istediğini bile ifade etti.”
Ayrıca dosyada Google ve ana şirketi Alphabet'in adını da verdiler. Character.AI'nin kurucuları, ürünlerini piyasaya sürmeden önce Google'da çalıştılar ve Character.AI teknolojisine münhasır olmayan bir lisans veren bir anlaşmanın parçası olarak Ağustos ayında şirket tarafından yeniden işe alındılar.
Bayan Garcia, Google'ın Character.AI teknolojisinin geliştirilmesine o kadar kapsamlı katkıda bulunduğunu ve Google'ın “ortak yaratıcı” olarak değerlendirilebileceğini söyledi.
Bir Google sözcüsü, şirketin Character.AI ürünlerinin geliştirilmesinde yer almadığını söyledi.
Duygusal açıdan sıkıntılı veya intihara meyilli hisseden herkes, yardım için 116 123 numaralı telefondan Samaritans'ı arayabilir veya e-posta gönderebilir. [email protected] İngiltere'de. ABD'de bölgenizdeki Samaritans şubesini arayın veya 1 (800) 273-TALK'ı arayın.