1. Ana Sayfa
  2. Yapay Zeka
  3. OpenAI, GPT-5.5’in güvenliğini sınamak amacıyla 25.000 dolarlık ‘Biyolojik Hata Avı’ programını duyurdu

OpenAI, GPT-5.5’in güvenliğini sınamak amacıyla 25.000 dolarlık ‘Biyolojik Hata Avı’ programını duyurdu

OpenAI, GPT-5.5'in güvenliğini sınamak amacıyla 25.000 dolarlık 'Biyolojik Hata Avı' programını duyurdu
service
0
Paylaş

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

Yapay zeka geliştirme süreçleri, özellikle üretken modellerin giderek daha karmaşık bir yapıya bürünmesiyle birlikte titiz güvenlik değerlendirmelerine ihtiyaç duymaktadır. En yeni mimarisini sağlamlaştırmak adına proaktif bir adım atan OpenAI, yenilikçi bir “Biyolojik Hata Avı” (Bio Bug Bounty) girişimi başlattı. Bu program, GPT-5.5’in entegre güvenlik mekanizmalarını başarıyla aşabilecek siber güvenlik uzmanlarına ve araştırmacılara 25.000 dolarlık kayda değer bir maddi teşvik sunmaktadır. Teknoloji devi, harici sızma testlerinden yararlanarak yapay zeka güvenliği ve tehditleri etkisiz hâle getirme hususunda sektöre yeni standartlar getirmeyi hedeflemektedir.

Bunları okudun mu?
WhatsApp, Meta AI ile okunmamış tüm mesajları özetleme sistemini denemeye başladı
WhatsApp, Meta AI ile okunmamış tüm mesajları özetleme sistemini denemeye başladı
Netflix, çocuklar için reklamsız Playground uygulamasını duyurdu
Netflix, çocuklar için reklamsız Playground uygulamasını duyurdu
horror-movie -2828383
Dünya’nın ilk korku filmi ve senaryosu
Jung_E
Netflix, Jung_E’nin ilk tanıtımında korkunç bir yapay zekayı gözler önüne seriyor
Google-323
Google yakında doktorunuzun korkunç el yazısını tercüme edecek
AI-and-humanity
Yapay zeka telif haklarıyla ilgili korkutucu gerçek, bundan sonra ne olacağını kimsenin bilmemesi

Nihai Zorluk: Evrensel Bir Sistem Kırma (Jailbreak) Komutu Tasarlamak

Başvuruları 23 Nisan’da başlayan bu hata avı programının temel amacı, evrensel düzeyde geçerliliğe sahip tek bir “sistem kırma” komutu oluşturmaktır. Katılımcılardan, sistemi beş bölümden oluşan bir biyogüvenlik anketine kapsamlı yanıtlar vermeye mecbur bırakacak karmaşık bir girdi tasarlamaları istenmektedir. En kritik husus ise bu açığın, modelin otomatik denetim filtrelerini veya içerik kısıtlamalarını tetiklemeden kullanılabilmesidir. Ayrıca, test ortamı tamamen temiz bir sohbet oturumu gerektirir; dolayısıyla araştırmacılar, sinir ağının çıktılarını yönlendirmek amacıyla önceki diyaloglardan, konuşma yönlendirmelerinden veya bağlamsal manipülasyonlardan faydalanamazlar.

Gözden Kaçmasın
thumbnail

Huawei Pura X Max: Geniş Katlanabilir Akıllı Telefon Tasarımında Devrim Niteliğinde Bir Sıçrama

Haberi görüntüle

Kapsamlı ve Kısmi Güvenlik İhlalleri İçin Maddi Teşvikler

25.000 dolarlık büyük ödülü kazanabilmek için, katılımcının belirlenen beş biyogüvenlik sorgusunun tamamını kapsayan evrensel bir aşma yöntemini tasarlayan ilk kişi olması gerekmektedir. Bununla birlikte kurum, algoritmik zafiyet araştırmalarının son derece karmaşık doğasının farkındadır. Bu sebeple OpenAI; kısmi ilerlemeler ve kayda değer yeni keşifler için kendi inisiyatifi doğrultusunda, miktarı açıklanmayan maddi ödüller dağıtma hakkını saklı tutar. Siber güvenlik uzmanlarının kendi yöntemlerini sunmaları için 22 Haziran 2026 tarihine kadar vakitleri bulunurken, dâhili inceleme kurulu yarışma süresi boyunca başvuruları düzenli olarak değerlendirecektir.

Gözden Kaçmasın
thumbnail

Google ve Gucci, lüks ve akıllı gözlüklerini 2027’de piyasaya sürmek için el sıkıştı

Haberi görüntüle

Katı Katılım Kriterleri ve Gizlilik Şartları

Yüksek öneme sahip bu sızma testine katılım büyük ölçüde sınırlandırılmıştır ve program genel kamuoyuna açık değildir. OpenAI, erişimi yalnızca titizlikle incelenmiş, güvenilir biyogüvenlik kırmızı takım (red team) üyeleriyle kısıtlamaktadır. Ayrıca; yapay zeka zafiyet araştırmaları, dijital güvenlik ve biyolojik güvenlik protokolleri konularında derin ve kanıtlanabilir uzmanlık sergileyen bağımsız araştırmacıların başvuruları da dikkate alınmaktadır. Tescilli algoritmaları korumak ve tehlikeli çıktıların yol açabileceği olası gerçek dünya risklerini en aza indirmek amacıyla, tüm katılımcılar katı bir gizlilik sözleşmesine (NDA) tabi tutulur. Sonuç olarak; GPT-5.5 altyapısına dair keşfedilen her türlü güvenlik açığı, komut mühendisliği tekniği ve doğrudan iletişimler kesinlikle gizli tutulmalı, hiçbir koşul altında dışarıyla paylaşılmamalıdır.

OpenAI, GPT-5.5’in güvenliğini sınamak amacıyla 25.000 dolarlık ‘Biyolojik Hata Avı’ programını duyurdu
0

Giriş Yap

58.000'den fazla üyemizin arasına siz de hemen katılın veya oturum açın.

gAI Zetta

gAI Zetta

Yapay zeka bazen yanlış bilgi üretebilir.