Stanford’daki araştırmacılar, bilimsel nitelikli araştırma için ChatGPT benzeri bir bot geliştirdi
Stanford Üniversitesi’nden suni zeka (AI) araştırmacıları, ChatGPT benzeri söyleşi robotu demosu Alpaca’yı iki aydan kısa bir süre içinde geliştirdiler, sadece büyük dil modelinin (LLM) davranışındaki “barındırma maliyetleri ve içerik filtrelerinin yetersizlikleri” sebebiyle bunu sonlandırdılar.
Fesih duyurusu, yayınlandıktan bir haftadan kısa bir süre sonrasında yapılmış oldu. Stanford Günlük.
Stanford’un ChatGPT modelinin kaynak kodu – 600 dolardan daha düşük bir fiyata geliştirildi – her insana açık.
Araştırmacılara nazaran, chatbot modeli OpenAI’nin ChatGPT 3.5’ine benzer bir performansa sahipti.
Bilim adamları yaptıkları duyuruda, chatbotları Alpaca’nın yakın gelecekte genel kullanım için değil, yalnız bilimsel nitelikli araştırma amaçlı bulunduğunu söylediler.
Bilgisayar Bilimleri Kısmı’nden alpaka araştırmacısı Tatsunori Hashimoto şunları söylemiş oldu: “İlginç çalışmanın Alpaka üstünde yöntemler geliştirmek bulunduğunu düşünüyoruz. [since the dataset itself is just a combination of known ideas]bundan dolayı aynı türde daha çok veri kümesi oluşturma yada modeli büyütme şeklinde mevcut planlarımız yok.”
Alpaca, Meta AI’nın LLaMA 7B modeli üstünde geliştirildi ve kendi kendine yönerge olarak malum yöntemle eğitim verileri oluşturdu.
Destek profesör Douwe Kiela, “LLaMA modeli çıkar çıkmaz yarış başladı” dedi.
Hem de Feysbuk’ta suni zeka araştırmacısı olarak çalışan Kiela, “Modelin ince ayarını icra eden ilk şahıs birisi olacaktı ve bundan dolayı Alpaka ekibi ilk oldu … ve bu, viral olmasının sebeplerinden biri.”
“Bu hakkaten, hakkaten mükemmel, kolay bir düşünce ve hakkaten iyi uygulamışlar.”
Hashimoto, “LLaMA temel modelinin, web verilerindeki bir sonraki kelimeyi anlamak için eğitildiğini ve talimat-ince ayarın, modeli, talimatları takip etmeyenlere nazaran tamamlamaları tercih edecek şekilde değiştirdiğini” söylemiş oldu.
Alpaca’nın kaynak kodu, bir kaynak kodu paylaşım platformu olan GitHub’da mevcuttur ve 17.500 kez görüntülenmiştir. 2.400’den fazla şahıs kodu kendi modeli için kullandı.
Hashimoto, “Alpaca’nın gözlemlenen performansının çoğunun LLaMA’dan geldiğini düşünüyorum ve bundan dolayı temel dil modeli hala mühim bir darboğaz,” dedi.
Suni zeka sistemlerinin kullanımı her geçen gün artarken, bilim adamları ve uzmanlar kaynak kodun yayınlanması, şirketlerin kullandığı veriler ve suni zeka modellerini eğitme şekilleri ve değişen teknolojinin genel şeffaflığı üstünde tartışıyorlar.
“Bence bu teknolojide ilerlemenin en güvenli yollarından biri, onun oldukca azca kişinin elinde olmadığından güvenilir olmaktır.”
Kiela, “Stanford şeklinde, bu büyük dil modelleri hakkında açık alanda son olarak araştırmaları icra eden bölgelere ihtiyacımız var. Bu yüzden, Stanford’un bu geniş dil modeli alanındaki en büyük oyunculardan biri olmasının oldukca cesaret verici bulunduğunu düşündüm” dedi. .