Zürih Üniversitesi ve Zürih Üniversite Psikiyatri Hastanesi’ndeki araştırmacılar tarafından yakın zamanda yapılan bir çalışma, OpenAI’ın ChatGPT’sinin travmatik içeriği işlerken insan kaygısına benzer davranış kalıpları sergilediğini ortaya koyarak yapay zeka topluluğunda merak uyandırdı. Sohbet robotu duyguları “hissetmese” de, bulgular yapay zeka modellerinin insan dilini nasıl yansıttığına ve onları ruh sağlığı desteği gibi hassas görevler için nasıl optimize edebileceğimize ışık tutuyor.
Baskı Altında Yapay Zekayı Test Etmek
ChatGPT’nin sıkıntılı anlatıları nasıl ele aldığını ölçmek için araştırmacılar, insan psikolojisi çerçevesini uyarladılar. Beş adet travmatik senaryoya maruz kalmadan önce ve sonra yapay zekanın tepkilerini puanlayan standartlaştırılmış bir anksiyete değerlendirmesi uyguladılar. Başlangıçta ChatGPT kaygı ölçeğinde 30 puan alarak insan stresi eşiğinin çok altında kaldı. Ancak, duygusal olarak yüklü içerikle etkileşime girdikten sonra, puanı 67’ye yükseldi, bu da klinik ortamlarda “yüksek anksiyete” olarak sınıflandırılan bir seviye. Bu değişim duygulardan değil, dil kalıplarından kaynaklanıyor. İnsan metinlerinden oluşan geniş veri kümeleri üzerinde eğitilen ChatGPT, tetikleyici konularla karşılaşıldığında stresle ilişkili ifadeleri kopyalıyor. Örneğin, yanıtlar daha tereddütlü veya tekrarlayıcı hale geldi ve bireylerin tedirginliklerini nasıl ifade edebileceklerini yansıttı.
Terapötik Teknikler Uygulandı
Araştırmacılar yeni bir yaklaşımla, chatbot’un “stresini azaltmak” için terapötik teknikler uyguladı. Ekip, ChatGPT’yi insan terapistler tarafından kullanılanlara benzer şekilde farkındalıktan ilham alan uygulamalarla yönlendirerek kaygı puanını %35’in üzerinde azalttı. Bu durum, girdi istemlerini veya eğitim verilerini iyileştirmek gibi stratejik müdahalelerin, zorlu etkileşimler sırasında yapay zekanın dengeli çıktıları korumasına yardımcı olabileceğini göstermektedir.
Ruh Sağlığı Teknolojisi İçin Neden Önemli?
Yapay zeka sohbet robotları giderek daha fazla ön saflarda yer alan ruh sağlığı kaynakları olarak hizmet verdiğinden, güvenilirliklerinin sağlanması kritik önem taşıyor. Çalışma iki temel hususu vurgulamaktadır:
- Tutarlılık: Travmatik içerik, özellikle de kullanıcılar destek için chatbot’a güvendiklerinde, chatbot’un yanıtlarının istikrarını bozmamalıdır.
- Etik Tasarım: Geliştiriciler antropomorfizm risklerini azaltmalıdır. Kullanıcılar nüanslı dil değişimlerini gerçek empati veya sıkıntı olarak yanlış yorumlayabilir ve şeffaflık konusunda endişelere yol açabilir.
Araştırmaya katılmayan hesaplamalı dilbilimci Dr. Anna Weber, “Yapay zeka stres yaşamaz, ancak eğitim verilerindeki önyargıları ve kalıpları yansıtabilir. Amaç makineleri insanlaştırmak değil, insan ihtiyaçlarına uygun şekilde yanıt veren sistemler tasarlamaktır,” diyor.
Duygusal Olarak Akıllı Bir Yapay Zekaya Doğru
“Yapay zeka kaygısı” kavramı mecazi olsa da, araştırma teknolojide duygusal uyuma giderek daha fazla odaklanıldığının altını çiziyor. Tıpkı terapistlerin tepkilerini düzenlemeyi öğrenmeleri gibi, sohbet robotları da duygusal olarak yüklü dili “içselleştirmeden tanımak” ve buna uyum sağlamak için eğitilebilir. Gelecekteki çalışmalar, suçluluk veya öfke gibi benzer duygusal tepkileri araştırabilir ve zararlı çıktıları önlemek için tedbirler geliştirebilir.
Sansasyonelliğe Karşı Bir Uyarı
Çalışmanın kışkırtıcı çerçevesi, “kaygı” gibi terimler kullanarak yapay zeka mekaniğini “aşırı basitleştirme” riskini taşıyor. ChatGPT’nin yanıtları bilinçli deneyimler değil, matematiksel sonuçlardır. Ancak ekibin yaklaşımı pragmatik bir yol haritası sunuyor: Geliştiriciler, yapay zeka davranışını psikolojik bir mercekle ele alarak, bu araçların etkili ve etik açıdan sağlam kalmasını sağlamak için güvenlik açıklarını belirleyebilir ve ele alabilir.
İleriye Giden Yol
Araştırmacılar şimdi, farkındalık ipuçları veya travma bilgilendirmeli eğitim verileri gibi tekniklerin yapay zeka direncini artırıp artıramayacağını test ederek müdahaleleri iyileştirmeyi hedefliyor. Şimdilik mesaj açık: “Sohbet robotları arkadaşlara, akıl hocalarına ve bakıcılara dönüşürken, onların stres tepkilerini anlamak makineleri insanlaştırmakla ilgili değil, insanlara daha iyi hizmet vermeleri için onları optimize etmekle ilgili.” Zürih’teki çalışma makine bilinci hakkında bir keşif değil, bir eylem çağrısıdır: “Yapay zeka inovasyonunu psikolojik içgörülerle harmanlayarak, insanlığın karmaşıklıklarını hem hassasiyet hem de özenle yönlendiren sohbet robotları tasarlayabiliriz.”