Yapay zeka asistanlarının doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından değerlendirildiği 14 dildeki araştırma, dikkat çeken sonuçlar ortaya koydu. Yanıtların Doğruluğu ve Sorunları Araştırmaya göre, yapılan 3 bin haber sorgusuna verilen yanıtların %45’inde en az bir ciddi hata tespit edildi. Ayrıca, yanıtların %81’inde çeşitli sorunlar olduğu belirlendi. Kaynak Atfetme Sorunu Yapay zeka asistanlarının özellikle haber…
Yapay zeka asistanlarının doğruluk, kaynak gösterme ve görüş-gerçek ayrımı açısından değerlendirildiği 14 dildeki araştırma, dikkat çeken sonuçlar ortaya koydu.
Araştırmaya göre, yapılan 3 bin haber sorgusuna verilen yanıtların %45’inde en az bir ciddi hata tespit edildi. Ayrıca, yanıtların %81’inde çeşitli sorunlar olduğu belirlendi.
Yapay zeka asistanlarının özellikle haber kaynaklarını doğru bir şekilde atfetmekte zorlandığı görüldü. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi yapıldığı saptandı. Özellikle Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda %25’in altında kaldı.
İncelenen yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgi bulunduğu belirlendi. Bu durum, yapılan sorguların 1xbet slot oyunu doğruluğunu ve güvenilirliğini zedeleyebilir.
Google, Gemini’nin kullanıcı geri bildirimleriyle sürekli geliştirildiğini vurgularken, OpenAI ve Microsoft yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini belirtti. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
EBU Medya Direktörü Jean Philip De Tender, araştırma sonuçlarına ilişkin yaptığı açıklamada, güven erozyonunun demokrasiyi zayıflatabileceğine dikkat çekti. EBU, yapay zeka şirketlerini haber yanıtlarında daha şeffaf olmaya çağırarak, haber kuruluşlarının hataları düzeltme süreçlerinin yapay zeka asistanları için de geçerli olması gerektiğini vurguladı.
Reklam & İşbirliği: [email protected]