1. Ana Sayfa
  2. Yapay Zeka
  3. Bir ruh sağlığı uygulaması, ChatGPT’yi kullanıcıları üzerinde test etti.

Bir ruh sağlığı uygulaması, ChatGPT’yi kullanıcıları üzerinde test etti.

featured
service
0
Paylaş

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

Yapay zekalı sohbet botu ChatGPT pek çok şey yapabiliyor. Tweetlere yanıt verebiliyor, bilim kurgu yazabiliyor, muhabirin ailesinin Noel’ini planlayabiliyor ve hatta mahkemede avukatlık yapması bile planlanıyor. Peki bir robot güvenli ve etkili bir ruh sağlığı desteği sağlayabilir mi? Koko adlı bir şirket, Ekim ayında yaklaşık 4.000 kullanıcısına ruh sağlığı desteği sağlamak için yapay zekayı kullanarak bunu öğrenmeye karar verdi. Koko’nun değil ama Twitter’ın kullanıcıları sonuçlardan ve deneyin gerçekleşmiş olmasından memnun kalmadılar. “Açıkçası, gelecek bu olacak. İnsanlarla etkileşim kurduğumuzu düşüneceğiz ve işin içinde bir yapay zeka olup olmadığını bilmeyeceğiz. Bu durum ‘insanlar arasındaki’ iletişimi nasıl etkileyecek? Kendi zihinsel sağlık sorunlarım var, bu yüzden bunun gerçekten doğru yapıldığını görmek istiyorum,” diyor Koko’nun kurucu ortağı Rob Morris verdiği bir röportajda.

Koko, insanların diğer kullanıcılardan tavsiye ve destek istemelerini sağlayan eşler arası bir ruh sağlığı hizmetidir. Kısa bir deneyde şirket, OpenAI’nin GPT-3’ü tarafından desteklenen “Koko Bot”u kullanarak kullanıcıların otomatik yanıtlar oluşturmasına izin verdi; bu yanıtlar daha sonra düzenlenebiliyor, gönderilebiliyor ya da reddedilebiliyordu. Morris’e göre, test sırasında gönderilen 30.000 yapay zeka destekli mesaj, ezici bir çoğunlukla olumlu yanıt aldı, ancak şirket birkaç gün sonra “biraz steril hissettirdiği” için deneyi kapattı. “GPT-3 ile etkileşime geçtiğinizde bazı şeyleri anlamaya başlayabilirsiniz. Her şey gerçekten iyi yazılmış, ancak bir tür kalıplaşmış ve okuyup bunun tamamen bir bot olduğunu, hiçbir insani nüans eklenmediğini anlayabiliyorsunuz,” diyor Morris. “Özellikle bu tür bir bağlamda, yazmanıza yardımcı olacak bir destek olarak bu araca sahip olduğunuzda kaybolan özgünlükle ilgili bir şey var. Bizim platformumuzda, mesajların daha insani bir şekilde yazıldığını hissettiğimde bir şekilde daha iyi hissettim.” ifadelerini kullandı.

Morris, testle ilgili olarak Twitter’da kullanıcıların bakımlarına bir yapay zekanın dahil olduğunu anlamadıklarını ima eden bir ileti paylaştı. “İnsanlar mesajların bir makine tarafından oluşturulduğunu öğrendiklerinde, işe yaramadı” şeklinde bir tweet attı. Tweet, Twitter’da Koko’nun araştırmasının etiği konusunda bir kargaşaya neden oldu. Morris, “Yapay zeka tarafından oluşturulan (ve insanlar tarafından denetlenen) mesajlar, insanlar tarafından kendi başlarına yazılanlardan önemli ölçüde daha yüksek puan aldı” diye tweet attı. “Yanıt süreleri %50 azalarak bir dakikanın altına düştü.” Morris bu sözlerin bir yanlış anlamaya neden olduğunu söyledi: bu bağlamda “insanlar” farkında olmayan kullanıcılar değil, kendisi ve ekibiydi. Koko kullanıcılarının mesajların bir bot tarafından yazıldığını bildiklerini ve doğrudan yapay zeka ile sohbet etmediklerini söyledi.

Morris, “Bu durum işe alım sürecinde açıklanmıştı” dedi. Yapay zeka söz konusu olduğunda, yanıtlar mesajın “Koko Bot ile işbirliği içinde yazıldığına” dair bir feragatname içeriyordu, diye ekledi. Ancak deney, Koko’nun kullanıcıları ne kadar iyi bilgilendirdiğine dair şüpheler ve kanıtlanmamış bir teknolojiyi canlı bir sağlık hizmeti ortamında, hatta eşler arası bir ortamda test etmenin riskleri de dahil olmak üzere etik soruları gündeme getiriyor.

Akademik veya tıbbi bağlamlarda, insan denekler üzerinde, deneklere katılımın potansiyel zararları ve faydaları hakkında ayrıntılı bilgi vermeyi içeren yazılar ve rızaları olmadan bilimsel veya tıbbi deneyler yapmak yasa dışıdır. Gıda ve İlaç İdaresi, doktorların ve bilim insanlarının herhangi bir test başlamadan önce güvenliği sağlamak amacıyla çalışmaları ‘Kurumsal İnceleme Kurulu’ (IRB) aracılığıyla yürütmelerini şart koşmaktadır. Ancak özel şirketler tarafından sağlanan çevrimiçi ruh sağlığı hizmetlerindeki patlama yasal ve etik bir gri alan oluşturdu. Resmi bir tıbbi ortamın dışında ruh sağlığı desteği sağlayan özel bir şirkette, temelde müşterilerinize istediğinizi yapabilirsiniz. Koko’nun deneyi için IRB onayı gerekmedi ya da alınmadı.

Boston’daki Beth Israel Deaconess Tıp Merkezi’nde dijital psikiyatri bölümünün direktörü olan John Torous, “Etik açıdan bakıldığında, teknolojiyi standart bir bakım olarak kabul edilebilecek şeylerin dışında kullandığınız her zaman, son derece dikkatli olmak ve ne yaptığınızı aşırı derecede açıklamak istersiniz” dedi. “Ruh sağlığı desteği arayan insanlar, özellikle de acil durum veya akran hizmetleri aradıklarında savunmasız bir durumdalar. Bu nüfusu koruma konusunda cimrilik etmek istemeyiz.” Torous, akran ruh sağlığı desteğinin, insanlar uygun eğitimden geçtiğinde çok daha etkili olabileceğini söyledi. Torous, Koko gibi sistemlerin ruh sağlığı hizmetlerine gerçek faydalar sağlayabilecek yeni bir yaklaşım benimsediğini, ancak kullanıcıların bu eğitimi almadığını ve bu hizmetlerin esasen test edilmediğini söyledi. Yapay zeka işin içine girdiğinde sorunlar daha da büyüyor. “ChatGPT ile konuştuğunuzda, size ‘lütfen bunu tıbbi tavsiye için kullanmayın’ diyor. Sağlık hizmetlerinde kullanım için test edilmemiştir ve açıkça uygunsuz veya etkisiz tavsiyeler verebilir,” diyor Torous.

Akademik araştırmaları çevreleyen normlar ve düzenlemeler sadece güvenliği sağlamakla kalmıyor. Aynı zamanda veri paylaşımı ve iletişim için standartlar belirleyerek deneylerin birbiri üzerine inşa edilmesini ve sürekli büyüyen bir bilgi birikimi oluşturulmasını sağlar. Torous, dijital ruh sağlığı sektöründe bu standartların genellikle göz ardı edildiğini söyledi. Başarısız deneyler yayınlanmama eğiliminde olabiliyor ve şirketler araştırmaları konusunda ketum davranabiliyor. Torous, bunun utanç verici olduğunu, çünkü ruh sağlığı uygulama şirketlerinin yürüttüğü müdahalelerin çoğunun yararlı olabileceğini söyledi.

Morris, resmi IRB deneysel inceleme sürecinin dışında faaliyet göstermenin bir ödünleşim içerdiğini kabul etti. Morris, “Akademi dışındaki bu tür çalışmaların IRB süreçlerinden geçip geçmemesi önemli bir soru ve bunu Twitter’da tartışmaya çalışmamalıydım” dedi. “Bu, sektör içinde daha geniş bir tartışma olmalı ve biz de bunun bir parçası olmak istiyoruz.” Morris, tartışmanın ironik olduğunu, çünkü Twitter’a ilk etapta mümkün olduğunca şeffaf olmak istediği için girdiğini söyledi. “İnsanların bu konuda daha dikkatli düşünmelerine yardımcı olmak amacıyla teknoloji konusunda olabildiğince açık olmaya ve ifşa etmeye çalışıyorduk” dedi.

Bir ruh sağlığı uygulaması, ChatGPT’yi kullanıcıları üzerinde test etti.
+ - 0

Giriş Yap

58.000'den fazla üyemizin arasına siz de hemen katılın veya oturum açın.

Bu Haberi gAI Zetta'ya Sor!