Hesap verebilirliği güçlendirmek amacıyla OpenAI, yapay zeka modellerinin performansını ve risklerini kamuya açık bir şekilde takip etmek adına merkezi bir platform olarak görev yapacak ‘Güvenlik Değerlendirme Merkezi’ni kurdu. Bu adım, şirketin telif hakkı ihlali iddiaları ve yüksek profilli bir intihal davasında kanıtları yanlış kullandığı iddiaları da dahil olmak üzere artan yasal incelemelerle karşı karşıya kalmasıyla geldi.
Güvenlik Değerlendirme Merkezi'nin Ortaya Koydukları
Merkez, kritik AI güvenlik sorunlarına ilişkin ölçütler sunuyor:
- Halüsinasyon Oranları: GPT-4 gibi modellerin ne sıklıkla yanlış veya anlamsız çıktılar ürettiği.
- Zararlı İçerik: Zehirli, önyargılı veya tehlikeli yanıtların örnekleri.
- Talimatlara Uyum: Modellerin, kullanıcı yönergelerini ne kadar güvenilir bir şekilde takip ettiği.
- Jailbreak Direnci: Güvenlik protokollerini atlatma girişimlerini engelleme başarı oranları.
OpenAI’ın yalnızca modelin lansmanında güvenlik önlemlerini özetleyen önceki “sistem kartlarından” farklı olarak, Güvenlik Değerlendirme Merkezi, zaman içinde gerçek dünya performansını yansıtan sürekli güncellemeler vaat ediyor. Şirket, gelişen AI değerlendirme standartlarına uyum sağlamayı ve sektör genelinde şeffaflığı teşvik etmeyi amaçladığını belirtiyor.
Odak Noktasında Modeller
Mevcut veriler GPT-4.1’den GPT-4.5’e kadar olan yinelemeleri kapsıyor, ancak OpenAI, Güvenlik Değerlendirme Merkezi’nin yalnızca sonuçların seçilmiş bir “anlık görüntüsünü” sağladığını belirtmektedir. Daha derinlemesine bilgiler için kullanıcılar, teknik değerlendirmeler ve araştırma makaleleri gibi ek kaynaklara yönlendiriliyor.
Yasal Engeller ve Şüphecilik
Bu girişim, hukuki karışıklıkların ortasında geldi. OpenAI, telif hakkıyla korunan kitaplar, makaleler ve kodlar üzerinde izinsiz olarak modeller eğittiği iddiasıyla davalara karışmış durumda. Ayrı bir çatışmada, The New York Times şirketi intihal davasıyla ilgili kanıtları silmekle suçladı, ancak OpenAI bu iddiayı reddediyor. Eleştirenler, merkezin kendi bildirdiği verilerin bağımsız doğrulamadan yoksun olduğunu ve seçici ölçütlere yer açtığını savunuyor. Stanford Üniversitesi’nde yapay zeka etiği araştırmacısı olan Dr. Lena Torres, “Şeffaflık, sadece öz değerlendirme değil, üçüncü taraf denetimleri gerektirir,” diyor. “Merkez bir adım ileriye gitmiş olsa da, OpenAI hala anlatıyı kontrol ediyor.”
İnovasyon ve Hesap Verebilirlik Arasında Denge
OpenAI, merkezin sınırlarını kabul ediyor ve yapay zeka test metodolojileri geliştikçe değerlendirmeleri iyileştireceğini belirtiyor. Şirket ayrıca güvenlik riskleri hakkında ‘proaktif iletişim’ sözü veriyor, ancak güvenlik açıklarının tam olarak açıklanacağına dair taahhütte bulunmuyor. Şu an için merkez, hem bir ilerleme raporu hem de bir halkla ilişkiler aracı olarak hizmet veriyor. Merkez, OpenAI’ın itibarını tehdit eden yasal mücadelelerle uğraşırken, etik AI geliştirme konusundaki artan talepleri karşılamaya yönelik çabalarını vurguluyor.
Yapay Zekada Şeffaflık Şart
Teknoloji sektörü, AI şeffaflığı konusunda bölünmüş durumda. OpenAI’ın merkezi, güvenlik verilerinin paylaşılması konusunda bir emsal oluştururken, seçici yaklaşımı kurumsal gizlilik ile kamu güveni arasındaki daha geniş gerilimleri ortaya koyuyor. Düzenleyiciler daha sıkı denetimler için baskı yaparken, OpenAI ve rakipleri, araçlarının güvenli, adil ve hesap verebilir olduğunu kanıtlamak zorunda.