Discord, hâlâ çocuk güvenliği sorunu yaşıyor

featured

Yeni bir rapor, Discord’un çocuk güvenliği ile ilgili sorunları hakkında endişe verici istatistikler ortaya koydu. NBC News, son altı yıl içinde Discord iletişimini içerdiği iddia edilen “çocuk kaçırma, tımar etme veya cinsel saldırı” suçlamalarıyla yargılanan 35 yetişkin vakası tespit etti. Bunlardan en az 15’i suçlu bulunmuş ya da karara bağlanmış, birçoğu ise hala beklemede. Muhabirler ayrıca, yetişkinlerin Discord aracılığıyla CSAM (çocuk cinsel istismarı materyali) paylaştıkları ya da siteyi kullanarak çocukları cinsel içerikli görüntülerini göndermeye zorladıkları iddiasıyla yargılandıkları dört suç halkası da dahil olmak üzere 165 vaka daha keşfetti. Rapora göre, yasadışı eylemler genellikle gizli topluluklarda ve sohbet odalarında gerçekleşiyor.

Google’da “site:justice.gov Discord” şeklinde yapılan basit bir arama, birçoğu rahatsız edici nitelikte olan çok sayıda sonuç veriyor. NBC News tarafından tespit edilen bir vakada, “polise göre, Discord’da aylarca tımar edildikten sonra bir genç eyalet sınırlarının ötesine götürüldü, tecavüze uğradı ve arka bahçedeki bir kulübede kilitli bulundu.” Kanada Çocuk Koruma Merkezi’nden Stephen Sauer NBC News’e yaptığı açıklamada “Gördüklerimiz buzdağının sadece görünen kısmı” dedi. Discord’un çocuk istismarı şikâyetlerini ele alış biçimi ilk kez eleştiri konusu olmuyor. Geçen yıl CNN de çok sayıda CSAM vakası tespit etmiş ve bazı ebeveynler Discord’un çok az yardım sunduğunu iddia etmişti.

Bu yılın başlarında, Ulusal Cinsel Sömürü Merkezi (NCOSE) “Discord 2023 Kirli Düzine Listesine Adını Yazdırdıktan Sonra Çocuk Cinsel İstismarı Materyallerini Nasıl Ele Aldığı Konusunda Sahtekârca Yanıt Veriyor” başlıklı bir açıklama yayınladı. Diğer hususların yanı sıra, CSAM bağlantılarının tespit edildiği ve rapor edildiği, ancak Discord’un sunucularında “iki haftadan fazla bir süre sonra” hala mevcut olduğu kaydedildi. Discord’un sorunlara yanıt verme konusundaki eylemlerinin çok pasif olduğunu, istismarı proaktif olarak arayıp kaldırmadığını da ekledi. Şu anda 150 milyondan fazla kullanıcısı olan sitenin “köklü bir dönüşüm geçirene kadar” reşit olmayanları yasaklamasını tavsiye etti.

Yakın tarihli bir şeffaflık raporunda Discord, “çocuk güvenliğine yaptığı yatırım ve önceliklendirme hiç bu kadar sağlam olmamıştı” dedi ve çocuk güvenliği ihlalleri nedeniyle 37.102 hesabı devre dışı bıraktığını ve 17.425 sunucuyu kaldırdığını ekledi. Şirketin güven ve güvenlikten sorumlu Başkan Yardımcısı John Redgrave, NBC News’e verdiği demeçte, Discord’un 2021’de yapay zeka moderasyon şirketi Sentropy’yi satın almasından bu yana platformun konuya yaklaşımının geliştiğine inandığını söyledi. CSAM’ı proaktif olarak tespit etmek ve kullanıcı davranışını analiz etmek için çeşitli sistemler kullanan Redgrave, şirketin artık “tanımlanmış, doğrulanmış ve endekslenmiş” çoğu materyali proaktif olarak tespit ettiğini düşündüğünü söyledi.

Bununla birlikte, sistemler şu anda çocuk cinsel istismarı materyallerini veya henüz endekslenmemiş mesajları tespit edemiyor. Geçtiğimiz ay içinde oluşturulan Discord sunucularını inceleyen NBC News, CSAM pazarlamak için ince bir şekilde gizlenmiş terimler kullanan 242 sunucu buldu. Discord, CSAM sorunları olan tek sosyal medya şirketi değil. Kısa süre önce yayınlanan bir raporda Instagram’ın reşit olmayanların cinsel içerikli paylaşımlarına adanmış “geniş bir hesap ağını birbirine bağlamaya ve teşvik etmeye” yardımcı olduğu tespit edilmişti. Bununla birlikte, Discord’un zaman zaman kolluk kuvvetlerinin işini zorlaştırdığı, bir vakada Ontario Polisi’nin kayıtları muhafaza etmesini istemesinin ardından ödeme talep ettiği bildiriliyor.

0
mutlu
Mutlu
0
_z_c_
Üzücü
1
aboo
Aboo
0
bay_ld_m
Bayıldım
0
sinirli
Sinirli
Discord, hâlâ çocuk güvenliği sorunu yaşıyor

Giriş Yap

gigahaber ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!