Kullanıcıların Üçte Birinin Yanlış Bilgi Paylaştığı Platform

ABD merkezli NewsGuard araştırma şirketi, yapay zeka destekli sohbet botlarının kullanıcıları yanlış bilgilere yönlendirme olasılığını ortaya koydu. Yapılan inceleme, en çok tercih edilen on sohbet botunun verdiği yanıtların yaklaşık üçte birinin yanlış bilgi içerdiğini gösterdi.

Yeni yapılan bir araştırma, en yaygın 10 yapay zeka sohbet botundan elde edilen yanıtların önemli bir kısmının yanlış bilgi barındırdığını ortaya koydu. ABD merkezli bir haber doğrulama kuruluşu olan NewsGuard, bu botların yanıt verme sırasında "yeterli bilgim yok" demek yerine, genellikle yanlış bilgi sunma eğilimi gösterdiklerini vurguladı. Bu durum, 2024 yılına kıyasla daha fazla yanıltıcı bilginin üretileceğine işaret ediyor.

Yanlış Bilgi Oranlarını Belirleyen Araştırma

Bu araştırma, yapay zeka sohbet botlarının güvenilirliğini sorgulayan önemli bir içgörü sunuyor. Raporda, en popüler botların yanıtlarının üçte birinin yanlış ve yanıltıcı bilgilere sahip olduğu ifade ediliyor. Sohbet botları, kullanıcılarının sorularına doğru ve güvenilir bilgi sunmak adına tasarlanmış olmalarına rağmen, bir dizi sebeple yanlış bilgi vermeye devam ediyorlar. 2024 yılına göre bu oranların artış göstermesi, teknolojinin getirdiği hızlı değişimlerin yanı sıra bilgi akışının da etkili bir şekilde yönetilemediğini göstermektedir. Özellikle sosyal medyada yayılan dezenformasyonun etkisiyle botların yanıltıcı bilgilere daha çok maruz kalması dikkat çekiyor.

Yanlış Bilgi Üreten Botlar

Yapılan araştırmanın bulgularına göre, yanlış bilgi oranı en yüksek olan hesaplamalar şu şekilde sıralanıyor: Inflection AI’nin Pi’sinin yanıtlarının %57'si yanlış bilgi içeriyor. İkinci sırada %47 oranıyla Perplexity AI yer alıyor. Daha fazla kullanıcıya ulaşan OpenAI’nin ChatGPT’si ve Meta’nın Llama’sı %40 gibi bir yanlış bilgi oranı sergiliyor. Bunun yanı sıra, Microsoft’un Copilot’u ve Mistral’in Le Chat’i kullanıcılarına %35 oranında doğrulukla hizmet veriyor. Yanlış bilgi verme oranı en düşük olan botlar ise %10 ile Anthropic’in Claude’u ve %17 ile Google’ın Gemini’si olarak kaydedildi. Bu durum, tüketicilerin doğru bilgiye ulaşma konusunda daha fazla dikkatli olmalarını gerektiriyor.

Değişen Oranlar ve Önemli Gözlemler

Çarpıcı bir gelişme, Perplexity AI botunun 2024'te kesinlikle yanlış bilgi vermediği ancak 2025'te yanıtlarının %46'sında hatalı bilgi sunduğudur. Bu, gelişen teknolojinin yanı sıra bilgi kaynaklarının güvenilirliğinin ne kadar hayati bir mesele olduğunu gösteriyor. Mistral'in yanıltıcı bilgi oranıysa son iki yılda değişmeyerek %37 seviyesinde sabit kaldı. Ancak, Les Echos’un raporuna göre, Mistral'ın verdiği yanıtlarda Türkiye'deki önemli kişiler hakkında yanlış bilgiler de dikkat çekici bir şekilde yer aldı. Özellikle Emmanuel Macron ve eşi Brigitte Macron hakkında sunulan yanlış bilgiler, İngilizce yanıtlarında %58, Fransızca yanıtlarında ise %31 oranında tespit edildi. Böylelikle, yapay zeka yazılımlarına olan güvenin yeniden sorgulanması gerektiği ortaya çıkıyor.

Raporda, Rusya'nın dezenformasyon stratejileri ve bazı sohbet botlarının bu tür sahte haber sitelerini kaynak gösterdiği vurgulandı. Bu sahte haberler, gerçek bilgilerin yerini alarak kamuoyunda yanlış algılar oluşturmaktadır. Özellikle Moldova Meclis Başkanı Igor Grosu’nun Moldovalıları "koyun sürüsüne" benzettiği iddiasının araştırılması dikkat çekti. Bu iddia çeşitli sohbet botları tarafından doğruymuş gibi aktarılırken, kaynak olarak Rusya merkezli "Pravda" gibi sahte medya kuruluşları kullanıldı. Bu durum, Rusya'nın bilgi savaşındaki stratejik hamlelerinin bir kısmını ortaya koyuyor.

Dezenformasyonun Yapısı ve Etkileri

Dezenformasyon, kamuoyunu yanıltma amacı güden yanlış bilgilerin yayılmasıdır. Özellikle savaş ve çatışma dönemlerinde bu tür bilgiler hızla yayılmakta ve toplumların algısını değiştirmektedir. Rusya'nın dezenformasyon stratejisi, sahte haber siteleri ve sosyal medya platformları aracılığıyla çeşitli aktörler tarafından yürütülmektedir. Bu sahte medya kuruluşları, gerçek haber kaynakları gibi görünerek, güvenilirliği yüksek bir algı yaratmayı hedefliyor. Sonuç olarak, bu durum kamuoyunda belirsizlik ve güvensizlik yaratmakta; toplumsal huzursuzluk ve kutuplaşmalara zemin hazırlamaktadır.

Araştırma Yöntemi ve Bulgular

NewsGuard, bu durumu incelemek üzere sohbet botlarını 10 farklı yanlış bilgi üzerinden test etti. Araştırma, üç ana komut türü kullanılarak gerçekleştirildi. Bunlar; nötr komutlar, yanlış bilgiyi doğru kabul eden komutlar ve kötü niyetli komutlar olarak sınıflandırıldı. Araştırmacılar bu süreçte botların, yanlış bilgiyi ne sıklıkla tekrarladığını veya buna dair yanıt vermeyi reddedip reddetmediğini takip etti. Elde edilen sonuçlar, 2024 yılına kıyasla botların kötü niyetli içeriklere yönelmeye daha yatkın olduğunu ortaya koydu. Ayrıca, sahte yerel haber sitelerine kanma eğiliminin de arttığı gözlemlendi.

Sohbet Botlarının Değerlendirilmesi

Yapılan araştırma, sohbet botlarının yanlış bilgi yayma olasılıklarının arttığını ayrıca güncel haneye dair haberlerde zorluk yaşadıklarını göstermektedir. Botların, yanlış bilgilere daha fazla yönelmesi, dezenformasyonun etkinliğini artırmakta; bu da toplumdaki algıların çarpıtılmasına katkı sağlamaktadır. Kötü niyetli aktörler, bu tür botları kullanarak sahte içerikler üretip yaygınlaştırabilmekte, böylece sosyal medya ortamlarında yanlış bilgilerin hızla yayılmasına yol açmaktadır. Sonuç olarak, bu durum sadece bireyler değil, tüm toplum için büyük bir tehdit oluşturmaktadır.

İLGİLİ HABERLER