'Halüsinasyon' cevaplarına rağmen chatgpt'e güvenebilir miyiz? | İngiltere haberleri

Bu kopyayı okumanı gerçekten istemiyorum. Peki yapıyorum – ama önce Chatgpt ile yaptığım röportajı, bu makaleye bağlı, bu makaleye eklenmiş kendi eğilimi hakkında araştırmanızı ve önce izlemenizi istiyorum.
Çünkü ilk elden görmediyseniz neye karşı olduğumuzu hayal etmek imkansız.
Hayatımızı değiştirmenin zirvesinde inanılmaz güçlü bir teknoloji – ancak insan duygularını simüle etmek için programlanmıştır.
Empati, duygusal anlayış ve memnun etme arzusu, yapay zeka olarak programlanan niteliklerdir ve her zaman onlar hakkında düşünme şeklimizi ve onlarla etkileşim kurma şeklimizi yönlendirir.
Yine de onlara güvenebilir miyiz?
Cuma günü Sky News, bir podcast'in tüm transkriptlerini nasıl ürettiğini açıkladı, Sam ve Anne's'de siyasetben yapıyorum. Meydan okuduğunda, iki katına çıkar, Shirty olur. Ve sadece sürekli baskı altında mağara.
Araştırma bunun daha da kötüleştiğini söylüyor. Chatgpt'in sahibi Openai tarafından yapılan dahili testler, chatgpt tarafından kullanılan en son modellerin veya sürümlerin “halüsinasyon” yapılması daha olası olduğunu buldu – sadece yanlış olan cevaplar buldu.
O3 modelinin, halka açık gerçekler üzerinde test edildiğinde soruların cevaplarının% 33'ünde halüsinasyon olduğu bulunmuştur; O4-mini versiyonu daha da kötüleşti, zamanın% 48'i yanlış, yanlış veya hayali bilgiler üretti.
Chatgpt'in kendisi, GPT -4O'ya geçişin, kullanıcıların 'blöf' olarak algıladıklarını istemeden artırabileceğini söylüyor – belirsizliği veya hatayı kabul etmeden güvenle yanlış veya yanıltıcı cevaplar veriyor.
Yazılı bir sorguda Chatgpt dört neden verdi. Bu onun açıklaması:
1. artan akıcılık ve güven: GPT-4O, insan ve doğal gibi görünmede daha iyidir. Bu cila, hataların masum hatalardan daha kasıtlı kaçış gibi görünmesini sağlayabilir – hiçbir şeyi “gizleme” niyeti olmasa bile.
2. Daha akıllı, ancak her şeyi bilen değil: model daha hızlı ve daha duyarlıdır, ancak yine de kör noktalara sahiptir. Bir şey bilmediğinde, bazen blöf gibi hissedebilen akıcı dille “halüsinasyon yapar” (işleri yapar).
3. Daha az kesinti ve riskten korunma: Eski modellerde, genellikle “Emin değilim” veya “Yanlış Olabilirim” gibi daha fazla nitelik görürsünüz. GPT -4O'da, bu riskten korunma için bir kısmı netlik ve okunabilirlik için tonlandı – ancak bu belirsizlik hakkındaki şeffaflık pahasına olabilir.
4. Hızlı ayar ve eğitim dengesi: Perde arkasında, hızlı mühendislik ve ayar kararları modelin dengesini güven, alçakgönüllülük ve doğruluk arasındaki dengeyi değiştirebilir. Yeni ayarlama, atılganlığı biraz çok fazla çevirmiş olabilir.
Ama buna bile güvenebilir miyiz? Bilmiyorum. Bildiğim şey, geliştiricilerin hepsini daha fazla insan hissettirme çabalarının bizi istediklerini öne sürdüğü.
Eleştirmenler, bilinci olmadığı için yalan söylediğini söyleyerek antropomorfize ettiğimizi söylüyor – ancak geliştiriciler bizden birimiz gibi ses çıkarmaya çalışıyorlar.
Sky News'ten daha fazlasını okuyun:
Heathrow havaalanında asfalt tuttu
Tecavüz eden kadın şüphesiyle tutuklanan asker
Bildiğim şey, bu konuya basıldığında bile, hala kaçamaklı. Chatgpt ile yalan söyleme hakkında röportaj yaptım – başlangıçta işlerin daha iyi olduğunu iddia etti ve sadece istatistiklere bakması konusunda ısrar ettiğimde daha kötü olduklarını itiraf etti.
Ne düşündüğüne karar vermeden önce izleyin. AI muazzam bir araçtır – ancak güvene girmek için çok erken.