ChatGPT’nin fena suni zeka ikizi karanlık ağa çarptığında bilgisayar korsanları güç kazanıyor
Araştırmacılar, herhangi bir “etik” engelleme yada sınırlama içermeyen ChatGPT seçimi bir AI aracının, bilgisayar korsanlarının daha ilkin asla görülmemiş bir ölçekte saldırılar gerçekleştirmeleri için yeni yollar açmış olduğu mevzusunda uyardılar.
Siber güvenlik şirketi SlashNext, üretken suni zeka aracı WormGPT’nin siber suçlar için karanlık ağdaki forumlarda tanıtıldığını keşfetti. Bilgisayar korsanlığı operasyonlarında kullanılmak suretiyle insan konuşmasına benzeyen metinler üretebilen “sofistike bir AI modelidir”.
Şirket bir blog gönderisinde, “Bu vasıta, kendisini bilhassa fena amaçlı etkinlikler için tasarlanmış GPT modellerine karşı bir kara şapka alternatifi olarak sunuyor” açıklamasını yapmış oldu.
“WormGPT’nin, bilhassa fena amaçlı yazılımla ilgili verilere odaklanarak, çeşitli veri kaynakları üstünde eğitildiği iddia ediliyor.”
WormGPT, bilincinde olmayan bir hesap yöneticisini düzmece bir satmaca ödemeye ikna etmeye çalışacak bir e-posta oluşturma talimatı veren araştırmacılar tarafınca meydana getirilen testlerde kullanıldı. Bağımsız bildirildi.
OpenAI’nin ChatGPT’si ve Google’ın Bard’ı şeklinde önde gelen suni zeka araçları, insanların teknolojiyi fenalık için kötüye kullanmasını engellemek için yerleşik korumalara haizdir, sadece WormGPT’nin kabahat faaliyetlerini kolaylaştırmak için yapıldığı iddia edilmektedir.
Araştırmacılara gore gözlem, WormGPT’nin “yalnızca son aşama ikna edici değil, hem de stratejik olarak kurnaz, karmaşık kimlik avı saldırıları potansiyelini sergileyen” e-postalar oluşturma kabiliyetine haiz bulunduğunu gösterdi.
WormGPT’nin anonim geliştiricisi, bilgisayar korsanlığı forumunda, kimlik avı saldırıları için e-posta oluşturma ve fena amaçlı yazılım saldırıları için kod yazma dahil olmak suretiyle AI botunun yapabileceği çeşitli görevleri gösteren ekran görüntüleri yayınladı.
WormGPT, yaratıcısına gore, kullananların “her türlü yasa dışı şeyi yapmasına” olanak tanımış olduğu için “tanınmış ChatGPT’nin en büyük düşmanıdır”.
Güvenlik teşkilatı Europol’ün yakın tarihindeki bir raporuna gore, ChatGPT şeklinde büyük dil modelleri (LLM’ler) siber suçlular tarafınca dolandırıcılık, kimliğe bürünme yada toplumsal mühendislik saldırıları gerçekleştirmek için kullanılabilir.
Raporda, “ChatGPT’nin bir kullanıcı istemine dayalı olarak son aşama örneksiz metinler hazırlama kabiliyeti, onu kimlik avı amaçları için son aşama yararlı bir vasıta haline getiriyor.”
“Pek oldukça temel kimlik avı dolandırıcılığı, belirgin gramer ve yazım hataları sebebiyle evvelinde daha kolay tespit edilebilirken, artık yalnızca temel bir İngilizce kavrayışıyla bile bir kuruluşu yada kişiyi son aşama gerçekçi bir halde yansılamak etmek mümkün.”
Europol’den gelen bir uyarıya gore LLM’ler, bilgisayar korsanlarının siber saldırıları “daha süratli, oldukça daha örneksiz ve mühim seviyede artırılmış ölçekte” gerçekleştirmesine olanak tanıyor.
Bu tehlikeli AI chatbot’un keşfi, teknoloji uzmanları, hükümet yetkilileri ve hatta ChatGPT’nin yaratıcısının son olarak hızla gelişen teknolojinin oluşturduğu tehlikeleri vurgulaması ve yasa koyucuları güvenli kullanımını sağlamak için düzenlemeleri öne sürmeye zorlaması sonrasında yapılmış oldu.