1. Ana Sayfa
  2. Yapay Zeka
  3. OpenAI, ABD hükümetine bir sonraki yapay zeka modeline erken erişim sağlama sözü verdi

OpenAI, ABD hükümetine bir sonraki yapay zeka modeline erken erişim sağlama sözü verdi

featured
service
0
Paylaş

Bu İçeriği Paylaş

ya da bağlantıyı kopyala

OpenAI’ın CEO’su Sam Altman, sosyal medya üzerinden yaptığı açıklamada, ABD’li düzenleyicilere OpenAI’ın bir sonraki temel yapay zeka modeline erken erişim sağlanacağını duyurdu. Kamuoyuna verilen bu söz, OpenAI’ın, şirketin bilgi işlem kaynaklarının en az %20’sini şirket genelindeki güvenlik çabalarına tahsis edeceği iddialarını içeren daha geniş güvenlik girişiminin bir parçası olarak geliyor. Altman, eski adı Twitter olan X’te, “Ekibimiz ABD Yapay Zeka Güvenlik Enstitüsü ile bir sonraki temel modelimize erken erişim sağlayacağımız bir anlaşma üzerinde çalışıyor, böylece yapay zeka değerlendirmeleri bilimini ilerletmek için birlikte çalışabiliriz. Bunun için heyecanlıyım.” dedi. ABD Yapay Zeka Güvenlik Enstitüsü, Başkan Biden’ın federal yapay zeka içerik düzenlemesine ilişkin ilk idari emri yayınlamasından sadece iki gün sonra, geçen sonbaharda Başkan Yardımcısı Kamala Harris tarafından tanıtıldı. Tech Crunch, haberinde Altman’ın sosyal medya vaadinin OpenAI’ın Haziran ayında Birleşik Krallık’taki düzenleyicilere verdiği söze benzediğini belirtiyor. Bazı teknoloji sektörü uzmanları, bu kamusal hamlelerin OpenAI’ın yapay zeka güvenliği konusundaki çalışmalarına ilişkin endişelere yanıt verip vermediğini merak ediyor. Mayıs ayında Tech Crunch, şirketin o ayın sonlarında GPT-4o ve şirketin nasıl eğitildiği konusunda sürekli olarak ağzını sıkı tuttuğu Sora video üretici platformu gibi yeni ürünleri piyasaya sürmek için güvenlik girişimlerine gideceğini söylediği kaynakları feda ettiğini bildirdi. Eleştirilere (ve iki uzun süreli OpenAI çalışanının güvenlik odaklı bir yapay zeka şirketi olan Safe Superinteligence Inc. kurmak üzere şirketten ayrılmasına) yanıt olarak OpenAI Mayıs ayı sonunda yeni bir güvenlik grubu oluşturdu. Ancak, Altman ve diğer yönetim kurulu üyelerinin bu grubu denetlemesi, şirketin güvenlik konusundaki samimiyetine ilişkin yeni endişelere yol açtı.

Bunları okudun mu?
ChatGPT-0909099-08080808
ChatGPT, kelimeleri sonsuza kadar tekrarlamasını istemenin, şartlarının ihlali olduğunu söylüyor
Sam-Altman-1487848785
OpenAI CEO’su Sam Altman görevden alındı
Samsung-Galaxy-S24-Ultra
Galaxy S24 Ultra’nın yeni bir 200MP kamera sensörü kullanacağı bildirildi
Tabii-TRT-2023
Yepyeni dijital platform Tabii, 7 Mayıs’ta başlıyor
WhatsApp-0808989898
WhatsApp sesli sohbet özelliği, en son Android beta sürümünde geliştiriliyor
huawei-technologies-logo
Huawei, Kasım ayında piyasaya sürülmesi planlanan renkli yeni flip telefonunu tanıttı

“Mevcut ve eski çalışanların endişelerini dile getirebilmelerini ve bunu yaparken kendilerini rahat hissetmelerini istiyoruz” diyen Altman, X’teki yeni yazısında şöyle devam ediyor: “Bu, her şirket için çok önemlidir, ancak bizim için özellikle önemlidir ve güvenlik planımızın önemli bir parçasıdır.” Altman, “Mayıs ayında, mevcut ve eski çalışanlar için aşağılamama şartlarını ve OpenAI’a kazanılmış sermayeyi iptal etme hakkı veren (hiç kullanılmamış olsa da) hükümleri geçersiz kıldık. Bunu düzeltmek için çok çalıştık.” diyerek sözlerini tamamlıyor. OpenAI’ın vaatleri, yapay zeka güvenliği ve düzenlemesi ile ilgili karmaşık bir bağlamda yaşanıyor. Bir yandan, Altman’ın gönderisine yapay zeka düzenlemelerinin artırılması lehine yanıt verenler, sözlerinin gerçek eylem açısından ne anlama geldiğini sorguluyor. Ancak, bazı katılımcılar hükümetin yapay zeka üzerinde hiçbir kontrolü olmaması gerektiğini ve Altman’ın yanlış bir şekilde dış baskılara boyun eğdiğini düşünüyor. “Bu sözü daha önce de duyduk. Konuşmak ucuzdur. En iyi güvenlik odaklı çalışanlarınız size güvenmedikleri için istifa etti ve muhbir oldu. Güvenimizi geri kazanmak için özellikle ne yapacaksınız?” diye yazıyor @AISafetyMemes. “Güvenlik” ne anlama geliyor? A. Sansür. B. Propaganda. C. Hükümetle uyumluluk. D. Yukarıdakilerin hepsi” diye soruyor @legitknuckle. “Yani diyorsunuz ki, bazı besleyiciler Oks verene kadar gelecek modelleri alamayacağız. Harika,” diye ekliyor @deepwhitman. “Bilgi işlemin %20’sinin hiçbir zaman güvenlik çalışmalarına ayrılmadığı suçlamasını ele alabilir misiniz?” diye soruyor @alexkaplan0. OpenAI’ın güvenlik konusunda yeterince çaba sarf etmediğini düşünenler ile şirketin ürünlerini etkileyecekse hiçbir şey yapmaması gerektiğine inananlar arasında ilginç bir bölünme var. Genel olarak Amerikan vatandaşlarına gelince, yakın zamanda yapılan bir YouGov anketi, ankete katılanların çoğunluğunun yapay zeka konusunda endişeli, temkinli ve şüpheci olduğunu, çok daha küçük bir oranın ise heyecanlı veya umutlu olduğunu gösteriyor. Dahası, her yedi Amerikalıdan biri yapay zekanın insanlığın sonunu getirebileceğine dair endişeleri var.

OpenAI, ABD hükümetine bir sonraki yapay zeka modeline erken erişim sağlama sözü verdi
0

Giriş Yap

58.000'den fazla üyemizin arasına siz de hemen katılın veya oturum açın.

gAI Zetta

gAI Zetta

Yapay zeka bazen yanlış bilgi üretebilir.