Yapay zeka teknolojisi daha sofistike hale geldikçe, özellikle seçim dönemleri gibi hassas zamanlarda kötüye kullanım potansiyeli önemli ölçüde artıyor. Bu alandaki liderlerden biri olan OpenAI, son ABD başkanlık seçim sezonunda bu gerçekle yüzleşti. Güçlü DALL-E görüntü üreticisi ve ChatGPT dil modeli, gerçekçi görüntüler ve konuşma yanıtları oluşturmak için popüler tercihler olan OpenAI, yanlış bilgilerin yayılmasını önlemek ve demokratik sürecin bütünlüğünü korumak için güçlü önlemler uyguladı.
Yapay Zeka Güvenliğine Proaktif Bir Yaklaşım
Seçim öncesinde OpenAI, teknolojisini deepfakes (gerçekte hiç yaşanmamış olayları ya da ifadeleri tasvir ederek izleyicileri manipüle edebilen aşırı gerçekçi görüntüler veya videolar) yaratmak için kullanma girişimlerini öngördü. Bu manipülasyonlar, özellikle de politikacılar veya kamuya mâl olmuş kişiler söz konusu olduğunda, seçmenleri yanlış yönlendirebilecek veya itibarlarını zedeleyebilecek yalanlar yayarak ciddi sonuçlar doğurabilir. Bununla mücadele etmek için OpenAI, DALL-E görüntü oluşturucusunda katı bir politika uygulayarak, mevcut ve eski siyasi figürler de dahil olmak üzere gerçek kişileri içeren görüntülerin oluşturulmasını yasakladı. OpenAI’ın sistemleri 250.000’den fazla deepfake talebini reddettiği için bu önlemin etkili olduğu kanıtlandı. Bu talepler arasında Başkan Biden, seçilmiş Başkan Trump, Başkan Yardımcısı Harris, seçilmiş Başkan Yardımcısı Vance ve Vali Walz gibi önde gelen isimlerin görüntülerini oluşturma girişimleri de vardı. Bu strateji görsel içeriği kısıtlamakla sınırlı değildi. OpenAI, ChatGPT’yi seçim sezonu boyunca yanlış bir bilgilendirme kalkanı haline getirerek kullanıcıları saygın kaynaklara yönlendirdi ve yanıtların partizan olmamasını sağladı.
Kullanıcıları Güvenilir Kaynaklara Yönlendirme
Platformlarının kamuoyunu etkileme potansiyelini anlayan OpenAI, güvenilir, gerçeklere dayalı bilgileri desteklemek için tasarlanmış yanıtlar oluşturdu. Seçim öncesinde ChatGPT, bir milyondan fazla kullanıcıyı Ulusal Dışişleri Bakanları Birliği tarafından işletilen resmi seçmen bilgi kaynağı CanIVote.org adresine yönlendirdi. Bu sayede, oy verme konusunda rehberlik arayan kişilerin, muhtemelen taraflı veya yanlış kaynaklara güvenmek yerine doğru ve resmi bilgiler almaları sağlanmıştır. Seçim günü ve ertesi gün OpenAI, seçim sonuçları ve oy verme süreçleriyle ilgili sorularda bir artış gördü. ChatGPT seçimle ilgili iki milyondan fazla yanıtı ele aldı ve kullanıcıları sonuçlar hakkında spekülasyon yapmak veya herhangi bir siyasi duruşu ifade etmek yerine gerçek zamanlı seçim güncellemeleri için Associated Press ve Reuters gibi saygın haber ajanslarına yönlendirdi. Açık mesaj, ChatGPT ve DALL-E’nin, açıkça istense bile, seçmen davranışını etkilemek veya yanlı anlatıları yaymak için bir araç olmayacağıydı.
Destek veya Siyasi Tercih Yok
OpenAI’ın tarafsızlık taahhüdüne uygun olarak ChatGPT, kullanıcılar doğrudan tavsiye istediklerinde bile adayları desteklemekten veya siyasi tercihleri ifade etmekten kaçınacak şekilde programlandı. OpenAI, ChatGPT’nin rolünün fikirleri etkilemekten ziyade gerçeklere dayalı, tarafsız bilgi sağlamak olduğunu vurgulamıştır. Bu tarafsızlık, teknolojinin esnekliğini sınırlama pahasına bile olsa, etik kullanımı etkileşim veya popülerliğe göre önceliklendiren OpenAI’ın güvenlik protokollerinin önemli bir yönüdür.
Deepfakes’e Karşı Daha Geniş Çaplı Savaş
OpenAI’ın titiz kontrollerine rağmen, ortam karmaşıktır ve zorluk, tek bir şirketin güvenlik önlemleriyle bitmez. İnternet yapay zeka görüntü oluşturucuları ve platformlarıyla dolup taşıyor ve seçimle ilgili deepfake’ler hala sosyal medyada kendine yer buluyor. Viral bir örnekte, Kamala Harris’in sahte bir videosu dolaşıma girmiş ve Kamala Harris’i, “Seçildim çünkü çeşitlilik konusunda en üst düzeyde işe alındım” derken göstermişti. OpenAI bu tür talepleri kendi platformunda başarılı bir şekilde engellemiş olsa da, bu olay, benzer güvenlik önlemleri olmadan yapay zekanın kötüye kullanımının diğer kanallarda nasıl devam edebileceğini örneklemektedir. Bu örnek aynı zamanda yapay zeka çağında kamu eğitiminin önemine de ışık tutuyor. AI teknolojisi geliştikçe ve giderek daha erişilebilir hale geldikçe, ortalama bir internet kullanıcısının bir dereceye kadar dijital okuryazarlık ve potansiyel olarak manipüle edilmiş içerik hakkında şüphecilik geliştirmesi gerekiyor.
Vaatler ve Tuzaklar Ortaya Çıktı
2024 seçim sezonu, kamusal söylemde yapay zekanın hem vaatlerini hem de tuzaklarını ortaya çıkardı. OpenAI’ın çabaları, proaktif önlemlerin mümkün olduğunu ve AI şirketlerinin, araçlarının yanlış bilgilendirme ortamına katkıda bulunmasını önleyerek sorumluluk üstlenebileceğini göstermektedir. Son kısıtlamalar belirli işlevleri sınırlarken, OpenAI’ın kararı, katılım veya inovasyondaki kısa vadeli kazançlar yerine uzun vadeli kamu güvenine öncelik veriyor. Yapay zeka hayatımıza daha da yerleştikçe, diğer yapay zeka geliştiricilerinin de benzer önlemler alması muhtemeldir. Sonuçta teknoloji, ancak yaratıcılarının niyetleri kadar etiktir. OpenAI’ın yaklaşımı güçlü bir örnek oluşturuyor. Dijital bir dünyada sorumlu kullanımın her şeyden önemli olduğunu ve güvenilirliğin sektör için tartışılmaz bir standart olması gerektiğini bize hatırlatıyor.