OpenAI, ABD Savunma Bakanlığı ile yaptığı anlaşmada teknolojisinin kitlesel gözetim, otonom silah sistemleri ve yüksek riskli otomatik karar mekanizmalarında kullanılmayacağını açıkladı.
HABER MERKEZİ – OpenAI, ABD Savunma Bakanlığı’nın gizli ağına yapay zeka teknolojisi sağlanmasını öngören anlaşmanın ek güvenlik önlemleri içerdiğini açıkladı.
Şirket, bir gün önce Pentagon’la vardığı mutabakatın, “gizli yapay zeka konuşlandırmaları için şimdiye kadarki en fazla güvenlik bariyerini” içerdiğini savundu.
ABD Başkanı Donald Trump’ın, hükümete Anthropic ile çalışmayı durdurma talimatı vermesinin ardından Pentagon, şirketi tedarik zinciri riski olarak değerlendireceğini duyurmuştu. Anthropic ise olası bir risk sınıflandırmasına karşı yargı yoluna başvuracağını bildirdi. Bu gelişmelerin hemen ardından Microsoft, Amazon ve SoftBank destekli OpenAI kendi anlaşmasını kamuoyuna duyurdu.,
ÜÇ KIRMIZI ÇİZGİ
Reuters’ın haberine göre OpenAI, Savunma Bakanlığı ile yapılan sözleşmenin üç “kırmızı çizgi” içerdiğini belirtti. Buna göre OpenAI teknolojisi; kitlesel iç gözetim amacıyla, otonom silah sistemlerini yönlendirmek için ya da yüksek riskli otomatik karar mekanizmalarında kullanılamayacak. Şirket, güvenlik mimarisinin kendi kontrolünde kalacağını, sistemlerin bulut üzerinden konuşlandırılacağını, yetkilendirilmiş OpenAI personelinin süreçte yer alacağını ve sözleşmede güçlü koruyucu maddeler bulunduğunu vurguladı. Olası bir sözleşme ihlalinin fesih hakkı doğurabileceğini belirten OpenAI, bunun gerçekleşmesini beklemediklerini ifade etti.
Pentagon’un son bir yılda OpenAI, Anthropic ve Google dahil büyük yapay zeka laboratuvarlarıyla her biri 200 milyon dolara kadar çıkabilen anlaşmalar imzaladığı kaydedildi. Açıklamada ayrıca Anthropic’in “tedarik zinciri riski” olarak etiketlenmemesi gerektiği görüşünün hükümete iletildiği belirtildi.



