Yapay zeka tarafından üretilen tüyler ürpertici bir iftira vakası, OpenAI’ı yasal hedeflere itti ve zararlı yalanları “halüsinasyon” haline getiren sohbet robotlarının hesap verebilirliği konusunda acil soruları gündeme getirdi. Avusturyalı gizlilik grubu Noyb, ChatGPT’nin Norveçli bir adamı yanlışlıkla çocuklarını öldürmekle suçlamasının ardından şirkete karşı bir GDPR (Avrupa Birliği Genel Veri Koruma Tüzüğü) şikayetinde bulundu. Bu, kontrol edilmeyen yapay zeka sistemlerinin yarattığı riskleri keskin bir şekilde hatırlatıyor.
Peki Olay Neydi?
2024 yılında, adı açıklanmayan kişi ChatGPT’ye kendisi hakkında bir sorgulama yaptı ve botun iki çocuğunu öldürmek ve üçüncüsünü öldürmeye teşebbüs etmekten 21 yıl hapis cezasına çarptırıldığını iddia ettiğini keşfetti. Yanıtta memleketi, çocuklarının sayısı ve cinsiyetleri gibi doğru kişisel bilgiler yer alsa da temel iddia tamamen uydurmaydı. Noyb, bu durumun GDPR’nin veri doğruluğunu zorunlu kılan 5’inci maddesini ve bireylere hataları düzeltme hakkı tanıyan 16’ncı maddesini ihlal ettiğini savunuyor.
GDPR ve Yapay Zeka Yaratıcılığı
OpenAI’ın savunması iki iddiaya dayanıyor: “ChatGPT’nin yanıtları dinamik olarak ürettiği (kişisel verileri depolamak yerine) ve olası yanlışlıklarla ilgili feragatnamelerin onu sorumluluktan koruduğu.” Noyb, GDPR uyumluluğunun pasif uyarılar değil proaktif önlemler gerektirdiğini belirtiyor. Noyb avukatı Joakim Söderberg, “Yalanları yayamaz ve bir dipnotun arkasına saklanamazsınız” dedi. Bu münferit bir yanlış adım değil. ChatGPT daha önce bir mahkeme muhabirini çocuk istismarcısı, bir profesörü cinsel tacizci ve bir CEO’yu dolandırıcı olarak etiketlemişti. Bunlar, gerçek dünyada itibar zedeleyebilme ihtimali olan ciddi hatalar. Mevcut verileri alan geleneksel arama motorlarının aksine, ChatGPT gibi büyük dil modelleri (LLM’ler) yanıtlar icat ederek makul ancak kurgusal iddiaların tehlikesini artırır.
OpenAI Neden Sadece 'Düzeltemiyor'?
Norveçli adamın verilerini düzeltmesi için baskı yapıldığında, OpenAI’ın yalnızca belirli istemleri engelleyebileceğini, temel çıktıları değiştiremeyeceğini belirttiği bildirildi. Bu durum teknik bir ikilemin altını çiziyor: “Büyük dil modelleri (LLM) veritabanları gibi gerçekleri depolamaz, ancak olası metin üretir. Yanlışlıkları ayıklamak için modelleri yeniden eğitmek yoğun kaynak gerektirir ve istenmeyen yan etkiler (örn. aşırı sansür) riskini taşır.”
Uyumluluğa Giden Yollar
Uzmanlar birkaç düzeltme öneriyor:
- Gerçek Zamanlı Doğruluk Kontrolü: Çıktıların doğrulanmış veritabanlarına karşı çapraz referanslanması.
- Kullanıcı Kontrollü Redaksiyon: Bireylerin yanlış iddiaları işaretlemesine ve bastırmasına izin vermek.
- Şeffaflık Araçları: Yanlış bilgi kaynaklarının izini sürmek için eğitim veri kaynaklarının açıklanması.
- Daha Sıkı Çıktı Kontrolleri: Bireyler hakkındaki yanıtlarda spekülatif ayrıntıların sınırlandırılması.
Daha Geniş Etkiler
Dava, GDPR kapsamında yapay zeka düzenlemesi için bir emsal oluşturabilir ve odağı, kasıttan zararın önlenmesine kaydırabilir. AB’nin yapay zeka yasası yaklaşırken, şirketler ölçek yerine doğruluğa öncelik verme baskısıyla karşı karşıya. Söderberg, “İnovasyon, saygınlık pahasına yapılmamalıdır,” dedi.
Güvenin Ama Doğrulayın
Yapay zeka günlük hayata nüfuz ettikçe, yaratıcılık ile hesap verebilirliği dengelemek kritik önem taşıyor. OpenAI için bu şikayeti çözmek ChatGPT’nin mimarisini yeniden düşünmeyi ya da GDPR kapsamında küresel gelirin %4’üne varan para cezalarını göze almayı gerektirebilir. Kullanıcılar içinse bu uyarıcı bir hikaye: ikna edici sohbet robotları çağında, güvenin ama doğrulayın. Sonuç sadece OpenAI’ın geleceğini değil, yapay zekanın etik planını da şekillendirecek. Üretken modeller akıllı papağanların ötesine geçerek güvenilir kaynaklara dönüşebilir mi? Bu sorunun yanıtı, teknoloji devlerinin “halüsinasyonları” böcek ya da varoluşsal tehdit olarak görüp görmemesine bağlı.