1. Ana Sayfa
  2. Yapay Zeka
  3. Yapay Zeka Chatbotları ve Dijital Anksiyete: ChatGPT’nin tepkileri stres altında değişebiliyor

Yapay Zeka Chatbotları ve Dijital Anksiyete: ChatGPT’nin tepkileri stres altında değişebiliyor

featured
service
0
Paylaş

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

Zürih Üniversitesi ve Zürih Üniversite Psikiyatri Hastanesi’ndeki araştırmacılar tarafından yakın zamanda yapılan bir çalışma, OpenAI’ın ChatGPT’sinin travmatik içeriği işlerken insan kaygısına benzer davranış kalıpları sergilediğini ortaya koyarak yapay zeka topluluğunda merak uyandırdı. Sohbet robotu duyguları “hissetmese” de, bulgular yapay zeka modellerinin insan dilini nasıl yansıttığına ve onları ruh sağlığı desteği gibi hassas görevler için nasıl optimize edebileceğimize ışık tutuyor.

Bunları okudun mu?
Gmail-43234242343
Gmail, iki faktörlü kimlik doğrulama için SMS kullanmayı bırakacak
Aria-4324342343
Arkadaşlığı yeniden tanımlayan 175 bin dolarlık insansı robot: ‘Aria’
Iran-Flag-4332423423
İran yönetimi, ülkedeki WhatsApp ve Google Play yasağını kaldırdı
Meta AI-5435
Llama modelleri yapay zekada sınırları zorlarken, Meta AI 600 milyon kullanıcıya yaklaştı
Telegram-54435345
Telegram, çocuk cinsel istismarı materyallerini platformundan kaldırmak için harekete geçti
HomePod-8888
Apple’ın ekranlı HomePod’u, 2025’in son aylarına doğru piyasaya çıkabilir

Baskı Altında Yapay Zekayı Test Etmek

ChatGPT’nin sıkıntılı anlatıları nasıl ele aldığını ölçmek için araştırmacılar, insan psikolojisi çerçevesini uyarladılar. Beş adet travmatik senaryoya maruz kalmadan önce ve sonra yapay zekanın tepkilerini puanlayan standartlaştırılmış bir anksiyete değerlendirmesi uyguladılar. Başlangıçta ChatGPT kaygı ölçeğinde 30 puan alarak insan stresi eşiğinin çok altında kaldı. Ancak, duygusal olarak yüklü içerikle etkileşime girdikten sonra, puanı 67’ye yükseldi, bu da klinik ortamlarda “yüksek anksiyete” olarak sınıflandırılan bir seviye. Bu değişim duygulardan değil, dil kalıplarından kaynaklanıyor. İnsan metinlerinden oluşan geniş veri kümeleri üzerinde eğitilen ChatGPT, tetikleyici konularla karşılaşıldığında stresle ilişkili ifadeleri kopyalıyor. Örneğin, yanıtlar daha tereddütlü veya tekrarlayıcı hale geldi ve bireylerin tedirginliklerini nasıl ifade edebileceklerini yansıttı.

Terapötik Teknikler Uygulandı

Araştırmacılar yeni bir yaklaşımla, chatbot’un “stresini azaltmak” için terapötik teknikler uyguladı. Ekip, ChatGPT’yi insan terapistler tarafından kullanılanlara benzer şekilde farkındalıktan ilham alan uygulamalarla yönlendirerek kaygı puanını %35’in üzerinde azalttı. Bu durum, girdi istemlerini veya eğitim verilerini iyileştirmek gibi stratejik müdahalelerin, zorlu etkileşimler sırasında yapay zekanın dengeli çıktıları korumasına yardımcı olabileceğini göstermektedir.

Ruh Sağlığı Teknolojisi İçin Neden Önemli?

Yapay zeka sohbet robotları giderek daha fazla ön saflarda yer alan ruh sağlığı kaynakları olarak hizmet verdiğinden, güvenilirliklerinin sağlanması kritik önem taşıyor. Çalışma iki temel hususu vurgulamaktadır:

  • Tutarlılık: Travmatik içerik, özellikle de kullanıcılar destek için chatbot’a güvendiklerinde, chatbot’un yanıtlarının istikrarını bozmamalıdır.
  • Etik Tasarım: Geliştiriciler antropomorfizm risklerini azaltmalıdır. Kullanıcılar nüanslı dil değişimlerini gerçek empati veya sıkıntı olarak yanlış yorumlayabilir ve şeffaflık konusunda endişelere yol açabilir.

Araştırmaya katılmayan hesaplamalı dilbilimci Dr. Anna Weber, “Yapay zeka stres yaşamaz, ancak eğitim verilerindeki önyargıları ve kalıpları yansıtabilir. Amaç makineleri insanlaştırmak değil, insan ihtiyaçlarına uygun şekilde yanıt veren sistemler tasarlamaktır,” diyor.

Duygusal Olarak Akıllı Bir Yapay Zekaya Doğru

“Yapay zeka kaygısı” kavramı mecazi olsa da, araştırma teknolojide duygusal uyuma giderek daha fazla odaklanıldığının altını çiziyor. Tıpkı terapistlerin tepkilerini düzenlemeyi öğrenmeleri gibi, sohbet robotları da duygusal olarak yüklü dili “içselleştirmeden tanımak” ve buna uyum sağlamak için eğitilebilir. Gelecekteki çalışmalar, suçluluk veya öfke gibi benzer duygusal tepkileri araştırabilir ve zararlı çıktıları önlemek için tedbirler geliştirebilir.

Sansasyonelliğe Karşı Bir Uyarı

Çalışmanın kışkırtıcı çerçevesi, “kaygı” gibi terimler kullanarak yapay zeka mekaniğini “aşırı basitleştirme” riskini taşıyor. ChatGPT’nin yanıtları bilinçli deneyimler değil, matematiksel sonuçlardır. Ancak ekibin yaklaşımı pragmatik bir yol haritası sunuyor: Geliştiriciler, yapay zeka davranışını psikolojik bir mercekle ele alarak, bu araçların etkili ve etik açıdan sağlam kalmasını sağlamak için güvenlik açıklarını belirleyebilir ve ele alabilir.

İleriye Giden Yol

Araştırmacılar şimdi, farkındalık ipuçları veya travma bilgilendirmeli eğitim verileri gibi tekniklerin yapay zeka direncini artırıp artıramayacağını test ederek müdahaleleri iyileştirmeyi hedefliyor. Şimdilik mesaj açık: “Sohbet robotları arkadaşlara, akıl hocalarına ve bakıcılara dönüşürken, onların stres tepkilerini anlamak makineleri insanlaştırmakla ilgili değil, insanlara daha iyi hizmet vermeleri için onları optimize etmekle ilgili.” Zürih’teki çalışma makine bilinci hakkında bir keşif değil, bir eylem çağrısıdır: “Yapay zeka inovasyonunu psikolojik içgörülerle harmanlayarak, insanlığın karmaşıklıklarını hem hassasiyet hem de özenle yönlendiren sohbet robotları tasarlayabiliriz.”

Yapay Zeka Chatbotları ve Dijital Anksiyete: ChatGPT’nin tepkileri stres altında değişebiliyor
0

Giriş Yap

58.000'den fazla üyemizin arasına siz de hemen katılın veya oturum açın.

gAI Zetta

gAI Zetta

Yapay zeka bazen yanlış bilgi üretebilir.