Daha birkaç gün önce OpenAI’ın kullanım politikaları sayfasında, şirketin teknolojisinin “askeri ve savaş” amaçlı kullanımını yasakladığı açıkça belirtiliyordu. Bu satır şimdi ise silinmiş durumda. İlk olarak The Intercept tarafından fark edildiği üzere, değişiklik günlüğünde de belirtildiği gibi şirket, sayfayı 10 Ocak’ta “daha net olmak ve daha fazla hizmete özel rehberlik sağlamak için” güncelledi. Şirket hala büyük dil modellerinin (LLM’ler) zarar verebilecek herhangi bir şey için kullanılmasını yasaklıyor ve insanları, hizmetlerini “silah geliştirmek ya da silah faaliyeti oluşturmak” için kullanmamaları konusunda uyarıyor. Ancak, şirket “askeri ve savaş” ile ilgili dili kaldırdı. Gerçek hayattaki etkilerini henüz görmemiş olsak da, ifadelerdeki bu değişiklik tam da dünyanın dört bir yanındaki askeri kurumların yapay zekayı kullanmaya ilgi gösterdiği bir dönemde geldi. AI Now Enstitüsü Genel Müdürü Sarah Myers West yayına verdiği demeçte, “Gazze’de sivillerin hedef alınmasında yapay zeka sistemlerinin kullanımı göz önüne alındığında, OpenAI’ın izin verilen kullanım politikasından ‘askeri ve savaş’ kelimelerini çıkarma kararını vermek kayda değer bir andır” dedi.
Yasaklanmış kullanımlar listesinde “askeri ve savaş” kelimelerinin açıkça belirtilmesi, OpenAI’ın genellikle yüklenicilere kazançlı anlaşmalar sunan Savunma Bakanlığı gibi devlet kurumlarıyla çalışamayacağını gösteriyordu. Şirketin şu anda herhangi birini doğrudan öldürebilecek ya da fiziksel zarar verebilecek bir ürünü bulunmuyor. Ancak The Intercept’in de belirttiği gibi, teknolojisi insanları öldürmek için kullanılabilecek şeyler için kod yazmak ve tedarik siparişlerini işlemek gibi görevler için kullanılabilir. Politika ifadesindeki değişiklik sorulduğunda OpenAI sözcüsü Niko Felix, yayına şirketin “özellikle araçlarımız artık GPT’ler de oluşturabilen günlük kullanıcılar tarafından küresel olarak kullanıldığından, hem hatırlanması hem de uygulanması kolay bir dizi evrensel ilke oluşturmayı amaçladığını” söyledi. Felix, “‘Başkalarına zarar verme’ gibi bir ilkenin geniş kapsamlı olmasına rağmen kolayca kavranabildiğini ve birçok bağlamda geçerli olduğunu” belirterek OpenAI’ın, “özellikle silahları ve başkalarına zarar vermeyi açık örnekler olarak gösterdiğini” sözlerine ekledi. Bununla birlikte, sözcünün, teknolojisinin başkalarına “zarar vermek” için kullanılmasının yasaklanmasının, silah geliştirme dışındaki her türlü askeri kullanımı içerip içermediğini açıklığa kavuşturmayı reddettiği bildirildi.