Yapay zeka, sanat oluşturmak, sanal deneme odalarında kıyafet denemek veya reklam kampanyaları tasarlamaya yardımcı olmak için de kullanılabilir. Ancak uzmanlar, kolayca erişilebilen araçların karanlık tarafının, öncelikle kadınlara zarar veren bir şeyi daha da kötüleştirebileceğinden korkuyor. Rıza dışı deepfake pornografi. Deepfakes, yapay zeka ya da makine öğrenimi ile dijital olarak oluşturulmuş ya da değiştirilmiş video ve görüntülerdir. Bu teknoloji kullanılarak oluşturulan pornolar ilk olarak birkaç yıl önce bir Reddit kullanıcısının kadın ünlülerin yüzlerini porno oyuncularının omuzlarına yerleştiren klipler paylaşmasıyla internette yayılmaya başladı. O zamandan beri deepfake oluşturucuları, çevrimiçi fenomenleri, gazetecileri ve kamuya açık bir profile sahip diğer kişileri hedef alan benzer video ve görüntüleri yaydı. Çok sayıda web sitesinde binlerce video mevcut. Ve bazıları kullanıcılara kendi görüntülerini oluşturma fırsatı sunuyor. Aslında bir bakıma herkesin istediği kişiyi rızası olmadan cinsel fantazilerine dönüştürmesine veya teknolojiyi eski partnerlerine zarar vermek için kullanmasına izin veriyor. Uzmanlar, sofistike ve görsel olarak ilgi çekici deepfake’ler yapmak kolaylaştıkça sorunun büyüdüğünü söylüyor. Ve internetten milyarlarca görüntü üzerinde eğitilen ve mevcut verileri kullanarak yeni içerikler üreten yapay zeka araçlarının geliştirilmesiyle daha da kötüye gidebileceğini söylüyorlar.
Teknoloji destekli istismar konusunda eğitimler veren EndTAB’ın kurucusu Adam Dodge, “Gerçek şu ki, teknoloji yaygınlaşmaya devam edecek, gelişmeye devam edecek ve bir düğmeye basmak kadar kolay hale gelmeye devam edecek” dedi. “Ve bu olduğu sürece, insanlar şüphesiz, bu teknolojiyi kötüye kullanmaya devam edecek ve başta çevrimiçi cinsel şiddet, deepfake pornografi ve sahte çıplak görüntüler yoluyla başkalarına zarar vereceklerdir.” ifadelerini kullandı. Avustralya’nın Perth kentinden Noelle Martin bu gerçeği deneyimledi. 28 yaşındaki kadın 10 yıl önce bir gün meraktan Google’da kendi görüntüsünü arattığında deepfake pornosunu bulmuş. Martin, bugüne kadar sahte görüntüleri ya da daha sonra bulacağı cinsel ilişkiye girdiği videoları kimin oluşturduğunu bilmediğini söylüyor. Muhtemelen birilerinin sosyal medya sayfasında ya da başka bir yerde yayınlanmış bir fotoğrafı alıp üzerinde oynayarak pornoya dönüştürdüğünden şüpheleniyor. Dehşete kapılan Martin, görüntülerin kaldırılması için birkaç yıl boyunca farklı web siteleriyle iletişime geçti. Bazıları yanıt vermedi.
Bazıları ise kaldırdı ama kısa süre sonra tekrar yayında buldu. “Kazanamazsınız,” dedi Martin. “Bu her zaman dışarıda olacak bir şey. Sanki sonsuza dek sizi mahvedecekmiş gibi.” Ne kadar çok konuşursa, sorunun o kadar arttığını söyledi. Hatta bazı insanlar ona giyim tarzının ve sosyal medyada paylaştığı görüntülerin tacize katkıda bulunduğunu söylemiş, esasen görüntüleri oluşturanlar yerine onu suçlamışlar. Sonunda Martin dikkatini mevzuata yöneltti ve Avustralya’da, çevrimiçi güvenlik düzenleyicilerinden gelen bu tür içerikler için kaldırma bildirimlerine uymayan şirketlere 555 bin Avustralya doları ceza kesecek ulusal bir yasayı savundu. Ancak bazen dünyanın öbür ucunda üretilen içerik için ülkelerin kendi yasaları varken interneti yönetmek neredeyse imkansız. Halen Batı Avustralya Üniversitesi’nde avukat ve hukuk araştırmacısı olan Martin, sorunun bir tür küresel çözümle kontrol altına alınması gerektiğine inandığını söylüyor. Bu arada, bazı yapay zeka modelleri müstehcen görüntülere erişimi şimdiden engellediklerini söylüyor. OpenAI, görüntü oluşturma aracı DALL-E’yi eğitmek için kullanılan verilerden müstehcen içeriği kaldırdığını ve bunun da kullanıcıların bu tür görüntüler oluşturma becerisini sınırladığını söylüyor. Şirket ayrıca talepleri filtreliyor, ünlülerin ve önde gelen politikacıların yapay zeka görüntülerini oluşturmasını engellediğini söylüyor. Bir başka model olan Midjourney, belirli anahtar kelimelerin kullanımını engelliyor ve kullanıcıları, müstehcen görüntüleri moderatörlere bildirmeye teşvik ediyor.
Bu arada, Stability AI adlı girişim Kasım ayında bir güncelleme yayınlayarak Stable Diffusion adlı görüntü oluşturucusunu kullanarak müstehcen görüntüler oluşturma olanağını ortadan kaldırdı. Bu değişiklikler, bazı insanların teknolojiyi kullanarak ünlülerden esinlenen çıplak resimler oluşturduğuna dair raporların ardından geldi. Stability AI sözcüsü Motez Bishara, filtrenin çıplaklığı tespit etmek için anahtar kelimeler ve görüntü tanıma gibi diğer tekniklerin bir kombinasyonunu kullandığını, bulanık bir görüntüye döndürdüğünü söyledi. Ancak şirket kodunu halka açtığı için kullanıcıların yazılımı manipüle etmesi ve istediklerini üretmesi mümkün. Bishara, Stability AI’ın lisansının “Stable Diffusion üzerine inşa edilmiş üçüncü taraf uygulamaları kapsadığını” ve “yasadışı ya da ahlaka aykırı amaçlarla kötüye kullanımı” kesinlikle yasakladığını söyledi. Bazı sosyal medya şirketleri de platformlarını zararlı materyallere karşı daha iyi korumak için kurallarını sıkılaştırıyor. TikTok geçen ay, gerçekçi sahneler gösteren tüm deepfake’lerin veya manipüle edilmiş içeriklerin sahte olduklarını veya bir şekilde değiştirildiklerini belirtmek için etiketlenmesi gerektiğini, özel figürlerin ve gençlerin deepfake’lerine artık izin verilmediğini söyledi. Daha önce şirket, cinsel içerikli içerikleri ve izleyicileri gerçek dünyadaki olaylar hakkında yanlış yönlendiren, zarar veren deepfake’leri yasaklamıştı. Oyun platformu Twitch de kısa bir süre önce, Atrioc adlı kullanıcının Ocak ayı sonlarında canlı yayın sırasında tarayıcısında açık bir deepfake porno web sitesine sahip olduğunun keşfedilmesinin ardından, açık deepfake görüntülerle ilgili politikalarını güncelledi. Sitede diğer Twitch yayıncılarının sahte görüntüleri yer alıyordu. Şirket bir blog yazısında, Twitch’in müstehcen deepfake’leri zaten yasakladığını, ancak şimdi bu tür içeriklerin bir anlık görüntüsünün (öfke ifade etme amaçlı olsa bile) kaldırılacağını ve yaptırımla sonuçlanacağını yazdı. Ayrıca bu tür materyalleri kasıtlı olarak teşvik etmek, oluşturmak ya da paylaşmak da anında yasaklanmaya neden oluyor.
Diğer şirketler de deepfake’leri platformlarından yasaklamaya çalıştı, ancak bunları uzak tutmak özen gerektiriyor. Apple ve Google geçtiğimiz günlerde, ürünü pazarlamak için aktrislerin cinsel içerikli deepfake videolarını yayınlayan bir uygulamayı mağazalarından kaldırdıklarını açıkladı. Deepfake porno ile ilgili araştırmalar yaygın değil ancak yapay zeka firması DeepTrace Labs tarafından 2019’da yayınlanan bir rapor, bunun neredeyse tamamen kadınlara karşı silah olarak kullanıldığını ve en çok hedef alınan kişilerin batılı aktrisler olduğunu, ardından da Güney Koreli K-pop şarkıcılarının geldiğini ortaya koydu. Google ve Apple tarafından kaldırılan aynı uygulama, Meta’nın Facebook, Instagram ve Messenger’ı içeren platformunda reklam yayınlamıştı. Meta sözcüsü Dani Lever yaptığı açıklamada, şirketin politikasının hem yapay zeka tarafından oluşturulan hem de yapay zeka tarafından oluşturulmayan yetişkinlere yönelik içeriği kısıtladığını ve uygulamanın sayfasının platformlarında reklam vermesini kısıtladığını söyledi. Şubat ayında Meta’nın yanı sıra OnlyFans ve Pornhub gibi yetişkinlere yönelik siteler, gençlerin internetteki müstehcen görüntü ve videolarını bildirmelerine olanak tanıyan Take It Down adlı çevrimiçi bir araca katılmaya başladı. Raporlama sitesi, normal görüntüler ve çocuk güvenliği grupları için giderek artan bir endişe haline gelen yapay zeka tarafından oluşturulan içerik için çalışıyor. “İnsanlar üst düzey yöneticilerimize tepeden aşağıya inen ve bizi endişelendiren kayaların ne olduğunu sorduklarında? Birincisi uçtan uca şifreleme ve bunun çocukların korunması için ne anlama geldiği. İkincisi ise yapay zeka ve özellikle de deepfakes” diyor Take It Down aracını işleten Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi sözcüsü Gavin Portnoy. Portnoy, “Henüz buna doğrudan bir yanıt oluşturamadık,” dedi.