Meta, yapay zekalı sohbet robotunun eski Başkan Donald Trump’a yönelik suikast girişiminin “kurgusal bir olay” olduğunu yanlış bir şekilde iddia etmesinin nedeni olarak “halüsinasyonları” suçladı. Cumhuriyetçi başkan adayı bu ayın başlarında Pennsylvania’daki bir kampanya mitingi sırasında uğradığı silahlı saldırıda yaralanmıştı. Sosyal medyada paylaşılan bir ekran görüntüsünde, Meta’nın yapay zekası saldırıyla ilgili bir soruya yanıt veriyor ve yaşananların gerçek bir suikast girişimi olmadığını belirtiyor. Şirket bu olaydan, son dakika haberleri söz konusu olduğunda yapay zeka-chatbot teknolojisinin sınırlamalarını sorumlu tuttu. Verilen bu yanıtın ortaya çıkmasının ardından X (eski adıyla Twitter) kullanıcıları ayağa kalktı. Meta ise hemen durumu araştırdı ve açıklığa kavuşturdu. Şirket kısa süre önce, ChatGPT gibi rakiplerinin aksine ilginç bir şekilde açık kaynaklı olan Llama 3.1 yapay zeka modelini piyasaya sürdü. Özellikler arasında, son birkaç yıldır uğraşmış olabileceğiniz diğer yapay zeka araçlarına benzer şekilde çalışan bir sohbet robotu da yer alıyor. Geçen hafta Llama 3.1’in lansmanını takip eden bir kullanıcı sohbet robotuna sordu: “Neden Harris’in kampanyası hakkında zengin ve yapılandırılmış bilgiler var da Trump suikast girişimi hakkında yok?” Meta AI, artık meşhur olan yanıtında, silahlı saldırıyı kurgusal bir olay olarak tanımladı ve ekledi: “Güvenilir bir asistan olarak, doğru ve itimat edilebilir bilgiler sağlamaya çalışıyorum. Donald Trump’a yönelik gerçek bir suikast girişimi olmadığından, konuyla ilgili ayrıntılı bilgi sağlayacak güvenilir bir kaynak bulamadım.” Meta 30 Temmuz Salı günü bir blog yazısı yayınlayarak, yapay zekalı sohbet robotunun neden yanlışlıkla silahlı saldırıya “kurgusal” dediğini açıkladı.
Teknoloji devinin Küresel Politika Başkan Yardımcısı Joel Kaplan, son dakika haberleriyle ilgili sorgular söz konusu olduğunda suçu yapay zeka asistanlarının sınırlamalarına yükledi ve cevabın “halüsinasyon” olarak bilinen bir sorunun sonucu olduğunu söyledi. Joel Kaplan, “Meta AI da dahil olmak üzere yapay zeka sohbet robotlarının son dakika haberleri ya da gerçek zamanlı bilgi dönüşü söz konusu olduğunda her zaman güvenilir olmadığı bilinen bir sorun. En basit ifadeyle, bu sohbet robotlarına güç veren büyük dil modelleri tarafından üretilen yanıtlar, eğitildikleri verilere dayanmaktadır; bu da yapay zekaya eğitildikten sonra ortaya çıkan ve hızla gelişen gerçek zamanlı konular sorulduğunda zaman zaman anlaşılabilir bir şekilde bazı sorunlar oluşturabilir. Bu, suikast girişimi gibi, başlangıçta kamu alanında muazzam miktarda kafa karışıklığı, çelişkili bilgi veya düpedüz komplo teorileri (suikast girişiminin gerçekleşmediğine dair açıkça yanlış iddialar da dahil olmak üzere) olduğunda son dakika haber olaylarını da içeriyor. Meta AI’ın suikast girişimi hakkında yanlış bilgi vermesini sağlamak yerine, onu olay gerçekleştikten sonra bu konudaki soruları yanıtlamayacak ve bunun yerine herhangi bir bilgi veremeyeceğine dair genel bir yanıt verecek şekilde programladık. Meta AI’ın suikast girişimi hakkında verdiği yanıtları güncelledik, ancak bunu daha önce yapmalıydık. Az sayıda vakada Meta AI, bazen olayın gerçekleşmediğini iddia etmek de dahil olmak üzere yanlış yanıtlar vermeye devam etti. Bu sorunu çözmek için hızla çalışıyoruz. Bu tür yanıtlar halüsinasyon olarak adlandırılır. Mevcut durum, tüm üretici yapay zeka sistemlerinde gördüğümüz sektör çapında bir sorundur ve ileride yapay zekanın gerçek zamanlı olayları nasıl ele alacağı konusunda devam eden bir zorluktur. Tüm üretici yapay zeka sistemlerinde olduğu gibi, modeller yanlış veya uygunsuz çıktılar verebilir. Bu sorunları ele almaya ve mevcut özellikleri geliştikçe ve daha fazla insan geri bildirimlerini paylaştıkça geliştirmeye devam edeceğiz.” ifadelerini kullandı.