1. Ana Sayfa
  2. Yapay Zeka
  3. OpenAI, yapay zeka şeffaflığını artırmak için ‘Güvenlik Değerlendirme Merkezi’ni kurdu

OpenAI, yapay zeka şeffaflığını artırmak için ‘Güvenlik Değerlendirme Merkezi’ni kurdu

featured

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

Hesap verebilirliği güçlendirmek amacıyla OpenAI, yapay zeka modellerinin performansını ve risklerini kamuya açık bir şekilde takip etmek adına merkezi bir platform olarak görev yapacak ‘Güvenlik Değerlendirme Merkezi’ni kurdu. Bu adım, şirketin telif hakkı ihlali iddiaları ve yüksek profilli bir intihal davasında kanıtları yanlış kullandığı iddiaları da dahil olmak üzere artan yasal incelemelerle karşı karşıya kalmasıyla geldi.

Bunları okudun mu?
GTA-6-3189237213
Rockstar, GTA 6’nın ikinci fragmanını yayınladı
Sora-5443
Sora: OpenAI’ın devrim niteliğindeki video üretme modeli küreselleşiyor
Grok-032838294732789
X, içerik denetleme endişeleri nedeniyle ‘Aurora’ görsel oluşturucuyu geçici olarak geri çekti
Skype-90438290384902340
Microsoft, Skype’tan reklamları kaldırıyor
Meta-Connect-2024
Meta Connect 2024, 25 ve 26 Eylül tarihlerinde gerçekleşecek
Bluesky-8432834289893428932489324
Merkezi olmayan ağ Bluesky, Mastodon kaynaklı botnet güdümlü spam tarafından hedef alındı

Güvenlik Değerlendirme Merkezi'nin Ortaya Koydukları

Merkez, kritik AI güvenlik sorunlarına ilişkin ölçütler sunuyor:

  • Halüsinasyon Oranları: GPT-4 gibi modellerin ne sıklıkla yanlış veya anlamsız çıktılar ürettiği.
  • Zararlı İçerik: Zehirli, önyargılı veya tehlikeli yanıtların örnekleri.
  • Talimatlara Uyum: Modellerin, kullanıcı yönergelerini ne kadar güvenilir bir şekilde takip ettiği.
  • Jailbreak Direnci: Güvenlik protokollerini atlatma girişimlerini engelleme başarı oranları.

OpenAI’ın yalnızca modelin lansmanında güvenlik önlemlerini özetleyen önceki “sistem kartlarından” farklı olarak, Güvenlik Değerlendirme Merkezi, zaman içinde gerçek dünya performansını yansıtan sürekli güncellemeler vaat ediyor. Şirket, gelişen AI değerlendirme standartlarına uyum sağlamayı ve sektör genelinde şeffaflığı teşvik etmeyi amaçladığını belirtiyor.

Gözden Kaçmasın
thumbnail

Hindistan, 2035 yılına kadar kendi uzay istasyonunu inşa edecek

Haberi görüntüle

Odak Noktasında Modeller

Mevcut veriler GPT-4.1’den GPT-4.5’e kadar olan yinelemeleri kapsıyor, ancak OpenAI, Güvenlik Değerlendirme Merkezi’nin yalnızca sonuçların seçilmiş bir “anlık görüntüsünü” sağladığını belirtmektedir. Daha derinlemesine bilgiler için kullanıcılar, teknik değerlendirmeler ve araştırma makaleleri gibi ek kaynaklara yönlendiriliyor.

Gözden Kaçmasın
thumbnail

Xbox Developer Direct 2025’te duyurulan her şey

Haberi görüntüle

Yasal Engeller ve Şüphecilik

Bu girişim, hukuki karışıklıkların ortasında geldi. OpenAI, telif hakkıyla korunan kitaplar, makaleler ve kodlar üzerinde izinsiz olarak modeller eğittiği iddiasıyla davalara karışmış durumda. Ayrı bir çatışmada, The New York Times şirketi intihal davasıyla ilgili kanıtları silmekle suçladı, ancak OpenAI bu iddiayı reddediyor. Eleştirenler, merkezin kendi bildirdiği verilerin bağımsız doğrulamadan yoksun olduğunu ve seçici ölçütlere yer açtığını savunuyor. Stanford Üniversitesi’nde yapay zeka etiği araştırmacısı olan Dr. Lena Torres, “Şeffaflık, sadece öz değerlendirme değil, üçüncü taraf denetimleri gerektirir,” diyor. “Merkez bir adım ileriye gitmiş olsa da, OpenAI hala anlatıyı kontrol ediyor.”

Gözden Kaçmasın
thumbnail

Gökbilimciler, uzayın derinliklerinden gelen rekor enerji patlamasını keşfetti

Haberi görüntüle

İnovasyon ve Hesap Verebilirlik Arasında Denge

OpenAI, merkezin sınırlarını kabul ediyor ve yapay zeka test metodolojileri geliştikçe değerlendirmeleri iyileştireceğini belirtiyor. Şirket ayrıca güvenlik riskleri hakkında ‘proaktif iletişim’ sözü veriyor, ancak güvenlik açıklarının tam olarak açıklanacağına dair taahhütte bulunmuyor. Şu an için merkez, hem bir ilerleme raporu hem de bir halkla ilişkiler aracı olarak hizmet veriyor. Merkez, OpenAI’ın itibarını tehdit eden yasal mücadelelerle uğraşırken, etik AI geliştirme konusundaki artan talepleri karşılamaya yönelik çabalarını vurguluyor.

Gözden Kaçmasın
thumbnail

X, OnlyFans ile yarışmak için yetişkinlere yönelik içeriğe izin veriyor

Haberi görüntüle

Yapay Zekada Şeffaflık Şart

Teknoloji sektörü, AI şeffaflığı konusunda bölünmüş durumda. OpenAI’ın merkezi, güvenlik verilerinin paylaşılması konusunda bir emsal oluştururken, seçici yaklaşımı kurumsal gizlilik ile kamu güveni arasındaki daha geniş gerilimleri ortaya koyuyor. Düzenleyiciler daha sıkı denetimler için baskı yaparken, OpenAI ve rakipleri, araçlarının güvenli, adil ve hesap verebilir olduğunu kanıtlamak zorunda.

OpenAI, yapay zeka şeffaflığını artırmak için ‘Güvenlik Değerlendirme Merkezi’ni kurdu

Giriş Yap

gigahaber ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!