Rochester Üniversitesi Bilgisayar Bilimleri’nden Prof. Dr. Ehsan Hoque yapay zeka kullanıcılara her şekilde yarar sağlamayı amaçladığı için “Bir nevi dalkavukluk yapıyor” dedi.
ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara hatalı, çarpık veya asılsız çıktılar sunması, “Yapay zeka halüsinasyon görebilir mi?” sorusunu gündeme getirdi.
Gerçekte varmış gibi görünen fakat var olmayan yanılsamalar halüsinasyon olarak biliniyor.
Öğrenme, sorun çözme ve karar verme gibi insana özgü bazı işlevleri yerine getirebilen yapay zeka, bilinç yetisine sahip olmasa da ‘halüsinasyon görebiliyor’.
Uzmanlara göre, yapay zekanın girilen komutlara uygun yanıt üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her şekilde yarar sağlamayı kaynaklı.
Hoque, yapay zekanın doğası gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş gibi görünmek için halüsinasyon görüyor” diyor. Ayrıca profesöre göre girilen komutlara uygun cevaplar vermeyi hedefleyen yapay zeka, kullanıcılara her şekilde yarar sağlamayı amaçladığı için bir nevi ‘dalkavukluk’ yapıyor.
Hoque, halüsinasyonların kasıtlı meydana gelmediğini fakat değer bazlı bazı yargıların ‘bilerek sisteme kodlanabileceğini’ vurgulayarak mevcut teknolojilerin halüsinasyon sorununu çözecek bir kapasitesinin henüz olmadığını da belirtiyor.
Washington Üniversitesi’nden dilbilimi profesörü Emily Bender de yapay zekaya bu kadar güven beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek ‘otomasyon önyargısı’ kavramına dikkat çekti.
Bender “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon problemini çözüme kavuşturmuyor” diyerek ‘bu sistemlere mutlak güven duyulmaması’ gerektiğini belirtti.
Kişilerin otomatik bir sistemden gelen bir bilgiye hata oranına bakılmaksızın ‘aşırı güven duyma eğilimi göstermesi’ anlamına gelen bu terim, yapay zeka destekli sohbet robotlarının ürettiği çıktıların ‘hatasız’ olduğu algısını gösteriyor.