1. Ana Sayfa
  2. Yapay Zeka
  3. Araştırmalara göre, yeni web sitelerinin yüzde 35’i artık yapay zeka tarafından üretiliyor

Araştırmalara göre, yeni web sitelerinin yüzde 35’i artık yapay zeka tarafından üretiliyor

Araştırmalara göre, yeni web sitelerinin yüzde 35’i artık yapay zeka tarafından üretiliyor
service
0
Paylaş

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

Dijital ekosistem, deneyimli teknoloji uzmanlarını bile hayrete düşüren bir hızla başkalaşım geçiriyor. Stanford Üniversitesi, Imperial College London ve Internet Archive’den araştırmacıların öncülük ettiği kapsamlı bir çalışma, çarpıcı bir değişimi gözler önüne sermektedir: “2022 yılının ortalarından bu yana yayımlanan tüm yeni web sitelerinin yaklaşık %35’i, tamamen yapay zeka tarafından üretilmiş veya büyük ölçüde makine destekli içerikler barındırmaktadır.” Uzmanların “Yapay Zeka Tarafından Üretilen Metnin İnternet Üzerindeki Etkisi” başlıklı dönüm noktası niteliğindeki makalelerinde özetlenen bu hızlı benimsenme süreci, dijital tarihte köklü bir kırılma noktasına işaret eder. Stanford yapay zeka araştırmacısı ve makalenin ortak yazarı Jonas Dolezal, bu değişimin benzeri görülmemiş hızına dikkat çekerek; web’i on yıllar boyunca yalnızca insan katkısının şekillendirdiğini, ancak algoritmaların sadece üç yıl içinde bu yapıyı çarpıcı biçimde yeniden tasarlamayı başardığını vurgulamıştır.

Bunları okudun mu?
ea-sports-fc-25-88978978789
EA Sports FC 25, kadın futbolunu ilk kez kariyer modlarına getiriyor
Google-Jeotermal-Projesi-454534
Google’ın ilk jeotermal enerji projesi hazır ve çalışıyor
earthquake-09090909
Deprem nedir ve neden meydana gelir?
manc-city
Sony ve Manchester City bir metaverse inşa ediyor
batman-5456454
Batman, bir sonraki animasyon filmi için ‘Lovecraft’a dönüyor
Ataturk-54443
Atatürk dizisi 2023’te Disney Plus’ta

Bu iddialı akademik inceleme, büyük ölçüde “Ölü İnternet Teorisi” etrafında büyüyen endişelerden beslenmiştir. Söz konusu kültürel hipotez, modern web’in giderek otomatik botların temel olarak diğer botlarla etkileşime girdiği boş bir yankı odasına dönüştüğünü ve gerçek insan etkileşimini geri plana ittiğini öne sürmektedir. Araştırma ekibi, bu algoritmik akının çevrimiçi ekosistemlerin kalitesini nasıl düşürebileceğine dair belirgin kaygılar taşıyordu. Uzmanların temel korkuları; büyük dil modellerinin arama motoru dizinlerini doldurmaya başlamasıyla birlikte üslup çeşitliliğinin aşınması, olgusal doğruluğun zedelenmesi ve insan bakış açılarının genel bir tekdüzeliğe sürüklenmesi ihtimali üzerinde yoğunlaşıyordu.

Gözden Kaçmasın
thumbnail

Nike, altı yıllık aradan sonra Amazon’a geri dönüyor

Haberi görüntüle

Arşivleme Zorlukları ve Tespit Mekanizmaları

Bu endişeleri deneysel düzeyde test etmek amacıyla, akademik ekip devasa bir veri toplama girişimine başladı. İnternet Arşivi ile ortaklık kurmak, karmaşık dijital arşivleme protokollerinde gezinmeyi gerektiriyordu; bu durum, milyonlarca geçici web sayfasını kataloglamanın içerdiği muazzam depolama sınırlarının ve teknik kısıtlamaların açık bir göstergesidir. Araştırmacılar, Ağustos 2022’den Mayıs 2025’e kadar uzanan geniş bir web sitesi metni örneğini başarıyla elde ettiler. İnsan yazarlığını algoritmik üretimden ayırmak için, ön denemeleri sırasında test edilen bir dizi analitik araç arasında en yüksek doğruluğu ve güvenilirliği gösteren gelişmiş bir yapay zeka tespit yazılımı olan Pangram v3’ü kullandılar.

Gözden Kaçmasın
thumbnail

Instagram, canlı yayın açmak için en az 1.000 takipçi şartı getirdi

Haberi görüntüle

Dijital Mitleri Çürütmek: Yapay Zeka Üretiminin Gerçekliği

Bu büyük veri setiyle donanan araştırmacılar, yapay zeka tarafından üretilen metinlere yönelik yaygın altı eleştiriyi, sistemik dezenformasyona ve zayıf alıntı uygulamalarına özel bir dikkat göstererek titizlikle değerlendirdiler. Toplanan sitelerden gerçeğe dayalı iddiaları ayıkladılar ve özgünlüğü doğrulamak için ücretli insan teyitçilerden faydalandılar; eş zamanlı olarak, bu otomatik sistemlerin dış kaynaklara gerçekte ne sıklıkla atıfta bulunduğunu ölçmek amacıyla dışa dönük bağlantı yoğunluğunu hesapladılar. Elde edilen ampirik sonuçlar, ekibin başlangıçtaki varsayımlarının birçoğunu tersine çevirdi. Nihayetinde, altı temel teoriden yalnızca ikisinin doğru olduğu kanıtlandı: Yapay zeka içeriğindeki artış, kelime dağarcığını ve dil yapısını daha standart hâle getirerek web’in anlamsal çeşitliliğini gerçekten azaltmıştı, ancak aynı zamanda genel tonu beklenmedik bir şekilde daha olumlu ve daha az laf kalabalığı içeren bir forma dönüştürmüştü.

Gözden Kaçmasın
thumbnail

Instagram, atlanamayan reklamları test ediyor

Haberi görüntüle

Otomatikleştirilmiş Ekosistemlerin Geleceğini İzlemek

Akademik topluluk, bu değişimin tekil bir olaydan ziyade devam eden bir evrim olduğunu kavrayarak, sürekli gözlem için şimdiden zemin hazırlamaktadır. Stanford’da öğrenci araştırmacı ve çalışmanın ortak yazarı olan Maty Bohacek, ekibin İnternet Arşivi ile olan iş birliklerini genişlettiğini doğruladı. Temel amaçları, bu algoritmik sinyalleri olgunlaştıkça kesintisiz biçimde takip edebilen kalıcı ve gerçek zamanlı bir izleme aracı tasarlamaktır. Araştırmalarının gelecekteki aşamaları; yapay zekanın durmak bilmeyen yayılımına karşı tam olarak hangi dijital nişlerin, dil demografiklerinin ve web sitesi kategorilerinin en savunmasız veya yeniliğe en açık olduğunu analiz eden ayrıntılı dökümlere odaklanacaktır.

Araştırmalara göre, yeni web sitelerinin yüzde 35’i artık yapay zeka tarafından üretiliyor
0

Giriş Yap

58.000'den fazla üyemizin arasına siz de hemen katılın veya oturum açın.

gAI Zetta

gAI Zetta

Yapay zeka bazen yanlış bilgi üretebilir.