350’den Fazla Model Test Edildi
Çalışma kapsamında katılımcılara üçer saniyelik sosyal etkileşim videoları izletilerek olayları yorumlamaları istendi. Aynı videolar, 350’den fazla yapay zekâ modeline de analiz ettirildi. Sonuçlara göre insanlar kendi aralarında büyük ölçüde fikir birliği sağlarken, yapay zekâ sistemleri aynı sahneleri değerlendirmede oldukça farklı ve tutarsız sonuçlar verdi.
Video ve Dil Modelleri Bir Adım Önde
Görüntü işleme tabanlı modeller, sosyal etkileşimleri tanımlamakta en düşük başarıyı gösterdi. Video analizine dayalı sistemlerin ise insan beyninin tepkilerini öngörmede daha başarılı olduğu belirlendi. Dil modelleri, davranış tahmininde kısmen daha iyi sonuçlar verse de, genel anlamda insan performansının gerisinde kaldı.
Sistemdeki Temel Sorun Nerede?
Araştırmacılara göre bu başarısızlık, mevcut yapay zekâ modellerinin tasarım yapısından kaynaklanıyor. Çoğu model, statik görüntüleri analiz etmeye yönelik geliştirildiği için dinamik ve duygusal yönü olan sosyal etkileşimleri algılamada yetersiz kalıyor. Ancak gerçek hayatta ilişkiler, beden dili ve bağlamsal bilgi gibi unsurlar oldukça önemli.
Uzmanlardan Uyarı: “Sadece Görmek Yetmez, Anlamak da Gerek”
Araştırma ekibinden Kathy Garcia, yapay zekânın artık yalnızca nesne ve yüz tanımanın ötesine geçmesi gerektiğini belirtti. Garcia, “Gerçek yaşam durağan değildir. Yapay zekânın hikâyeyi, ilişkiyi ve bağlamı çözümleyebilmesi gerekiyor. Sosyal zekâ sadece görsellikle sınırlı değil” ifadelerini kullandı.
Otonom Sistemler İçin Alarm Zili
Bu çalışma, özellikle otonom araçlar, sosyal robotlar ve yapay zekâ destekli asistanların güvenliği açısından büyük önem taşıyor. İnsan davranışlarını doğru şekilde analiz edemeyen sistemlerin karar alma süreçleri tehlike oluşturabilir. Dolayısıyla yapay zekâda sosyal farkındalık geliştirme çalışmaları daha da kritik hale geliyor.
Haber Merkezi