Johns Hopkins Üniversitesi tarafından yürütülen yeni bir araştırma, yapay zekâ sistemlerinin sosyal etkileşimleri yorumlamada insanlarla kıyaslandığında ciddi ölçüde yetersiz kaldığını gözler önüne serdi. Üç saniyelik videolar aracılığıyla yapılan deneyde, katılımcılardan gördükleri sosyal sahneleri değerlendirmeleri istendi. Aynı sahneler, 350’den fazla farklı yapay zekâ modeline de analiz ettirildi. Sonuçlar, yapay zekânın sosyal sinyalleri algılama ve bağlamsal ilişkilendirme konusunda büyük ölçüde başarısız olduğunu ortaya koydu.
İnsanlar, kısa klipleri değerlendirirken yüksek oranda fikir birliğine ulaşırken, yapay zekâ sistemlerinin analizleri son derece dağınık ve tutarsız çıktı. Bu durum, özellikle otonom araçlar, sosyal robotlar ve insanla birebir iletişim kurması beklenen dijital asistanlar gibi uygulamalar açısından büyük bir zafiyet oluşturuyor. Çünkü bu teknolojilerin güvenli ve doğru çalışabilmesi, çevredeki insan davranışlarını ve ilişkilerini sağlıklı biçimde okuyabilmesine bağlı.
Görüntü Var, Anlam Yok: AI Hâlâ Hikâyeyi Kaçırıyor
Araştırmada kullanılan modellerin türlerine göre performansları da farklılık gösterdi. Görüntü temelli yapay zekâlar, yüzleri ve objeleri tanımada başarılı olsa da etkileşimleri ayırt etmekte zorlandı. Video modelleri, beyin aktivitesiyle daha uyumlu çıktılar üretebildi. Dil tabanlı sistemler ise davranış tahmininde diğer modellere göre nispeten daha başarılıydı. Ancak hiçbir model, insanlar kadar tutarlı ve güvenilir sonuçlara ulaşamadı.
Araştırmacılara göre bu başarısızlık, yapay zekâ sistemlerinin temel kurgusundan kaynaklanıyor. Mevcut modeller, daha çok sabit görüntüleri işleyen beyin bölgelerini taklit ederek geliştirilmişti. Oysa sosyal etkileşimler, zamanla gelişen ve çoklu bağlam içeren dinamik yapılar içeriyor. Çalışmanın baş araştırmacılarından Kathy Garcia, “Gerçek hayat durağan değil. Yapay zekânın artık sadece yüzleri değil, olayların akışını ve ilişkilerin derinliğini de anlaması gerekiyor” diyerek bu dönüşüm ihtiyacına dikkat çekti.