Fırsatçıların para dolandırmak ya da itibar zedelemek için üretken yapay zekayı kullandığı bir çağda, teknoloji firmaları, kullanıcıların içeriği (en azından başlangıç olarak hareketsiz görüntüleri) doğrulamasına yardımcı olacak yöntemler geliştiriyor. OpenAI, 2024 yanlış bilgilendirme stratejisinde de belirttiği gibi, web üzerinde ChatGPT ve DALL-E 3 API ile oluşturulan görüntülere artık provenans meta verilerini dahil ediyor ve mobil muadilleri de 12 Şubat’a kadar aynı yükseltmeyi alacak. Meta veriler C2PA (Coalition for Content Provenance and Authenticity – İçerik İspatı ve Özgünlüğü Koalisyonu) açık standardını takip ediyor ve böyle bir görüntü Content Credentials Verify aracına yüklendiğinde, kaynağını izleyebileceksiniz. Örneğin, ChatGPT kullanılarak oluşturulan bir görüntü, DALL-E 3 API kaynağını gösteren bir ilk meta veri bildirimi ve ardından ChatGPT’de ortaya çıktığını gösteren ikinci bir meta veri bildirimi gösterecektir.
C2PA standardının arkasındaki süslü kriptografik teknolojiye rağmen, bu doğrulama yöntemi yalnızca meta veriler sağlam olduğunda çalışır; sosyal medyadaki herhangi bir ekran görüntüsü veya yüklenen görüntüde olduğu gibi, yapay zeka tarafından oluşturulan bir görüntüyü meta veriler olmadan yüklerseniz araç hiçbir işe yaramaz. Şaşırtıcı olmayan bir şekilde, resmi DALL-E 3 sayfasındaki mevcut örnek görüntüler de boş çıktı. OpenAI, ‘Sıkça Sorulan Sorular’ sayfasında bunun yanlış bilgi savaşını ele almak için sihirli bir değnek olmadığını kabul ediyor, ancak anahtarın kullanıcıları bu tür sinyalleri aktif olarak aramaya teşvik etmek olduğuna inanıyor. OpenAI’ın sahte içeriği engellemeye yönelik son çabası şu anda hareketsiz görüntülerle sınırlı olsa da, Google’ın DeepMind’ı, hem yapay zeka tarafından üretilen görüntüleri hem de sesleri dijital olarak filigranlamak için SynthID’ye zaten sahip. Bu arada Meta, kurcalanmaya daha az eğilimli olabilecek yapay zeka görüntü oluşturucusu aracılığıyla görünmez filigranı da test ediyor.
