Üretken yapay zeka ile ilgili endişeler her zaman mevcut olduğundan, Google, yapay zekaya özgü saldırılara ve kötü niyet fırsatlarına odaklanan ‘Güvenlik Açığı Ödül Programı’nı (VRP) genişlettiğini duyurdu. Bu bağlamda şirket, hangi keşiflerin ödül almaya hak kazandığını ve hangilerinin kapsam dışında kaldığını detaylandıran güncellenmiş yönergeler yayınladı. Örneğin, özel, hassas bilgileri sızdıran eğitim verisi çıkarımını keşfetmek kapsam dahilinde, ancak yalnızca kamuya açık, hassas olmayan verileri gösteriyorsa, o zaman bir ödül için uygun olmayacaktır. Geçen yıl Google, güvenlik araştırmacılarına hata keşifleri için 12 milyon dolar verdi. Google, yapay zekanın model manipülasyonu ve haksız önyargı gibi diğer teknolojilerinden farklı güvenlik sorunları sunduğunu ve bunu yansıtmak için yeni bir rehberlik gerektirdiğini açıkladı.
Şirket yaptığı açıklamada, “VRP’nin genişletilmesinin, yapay zeka güvenliği ve emniyetiyle ilgili araştırmaları teşvik edeceğine ve sonuçta yapay zekayı herkes için daha güvenli hale getirecek potansiyel sorunları gün ışığına çıkaracağına inanıyoruz” dedi. “Ayrıca, yapay zeka tedarik zinciri güvenliği hakkındaki bilgileri evrensel olarak keşfedilebilir ve doğrulanabilir hale getirmek için açık kaynak güvenlik çalışmalarımızı genişletiyoruz.” ifadelerine yer verildi. Google’ın da aralarında bulunduğu yapay zeka şirketleri bu yılın başlarında Beyaz Saray’da bir araya gelerek yapay zekanın güvenlik açıklarının daha fazla keşfedilmesi ve farkındalık oluşturulması için taahhütte bulunmuşlardı. Şirketin VRP (Güvenlik Açığı Ödül Programı) genişlemesi, Başkan Biden’ın 30 Ekim Pazartesi günü için planladığı bildirilen ve devlet kurumları tarafından herhangi bir kullanımdan önce yapay zeka modelleri için katı değerlendirmeler ve gereksinimler oluşturacak “kapsamlı” bir idari emrin de öncesinde geliyor.
