banner79

Araştırma: Yapay zeka asistanları haber içeriklerini yanlış aktarıyor

Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, önde gelen yapay zeka asistanlarının haber içeriklerini neredeyse her iki durumda birinde yanlış aktardığını ortaya koydu.

banner80
Araştırma: Yapay zeka asistanları haber içeriklerini yanlış aktarıyor
banner81

İSTANBUL-NURULLAH SARI(YSM) - 14 dilde yürütülen araştırma, ChatGPTMicrosoft CopilotGoogle Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.

Sonuçlara göre, yanıtların yüzde 45’inde en az bir ciddi hata, yüzde 81’inde ise bir tür sorun tespit edildi.

Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde “eksik, yanıltıcı veya hatalı kaynak gösterimi” bulundu.

Google’ın Gemini asistanında bu oran yüzde 72’ye kadar çıkarken, diğer tüm platformlarda bu oran yüzde 25’in altında kaldı. Ayrıca, incelenen tüm yanıtların yaklaşık yüzde 20’sinde güncel olmayan veya yanlış bilgi bulundu.

Şirketler: “Geliştirmeye devam ediyoruz”

Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini belirtti. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen, yapay zekânın yanlış veya uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini daha önce açıklamıştı.

Perplexity, “Derin Araştırma” (Deep Research) modunun yüzde 93,9 doğruluk oranına sahip olduğunu iddia ediyor.

Hatalı örnekler dikkat çekti

Araştırmada, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı.

Çalışmaya, Kanada’dan CBC/Radio-Canada da dâhil olmak üzere Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD’den 18 ülkedeki 22 kamu yayın kuruluşu katıldı.

“Güven erozyonu demokrasiyi zayıflatabilir”

EBU Medya Direktörü Jean Philip De Tender, araştırmanın sonuçlarına ilişkin yaptığı açıklamada, “İnsanlar neye güveneceklerini bilmediklerinde hiçbir şeye güvenmemeye başlıyorlar. Bu da demokratik katılımı caydırabilir.” dedi.

EBU, yapay zeka şirketlerini haberlerle ilgili yanıtlarında daha şeffaf ve hesap verebilir olmaya çağırarak, “Haber kuruluşlarının hataları tespit edip düzelten sağlam süreçleri varsa, aynı sorumluluk yapay zekâ asistanları için de geçerli olmalıdır.” ifadelerini kullandı.

banner82

YSM HABER MERKEZİ

banner83
banner84

Yorum yapabilmek için üye girişi yapmanız gerekmektedir.

Üye değilseniz hemen üye olun veya giriş yapın.

SIRADAKİ HABER

banner71

banner72

banner73

banner68

banner69

banner70