OpenAI, ABD Savunma Bakanlığı ile toplam tavan bütçesi 200 milyon doları bulan bir sözleşmeye imza attı. Yapılan duyuruya göre proje kapsamında geliştirilecek yapay zekâ çözümleri hem savaş alanında hem de bakanlığın kurumsal yapısında kullanılmak üzere prototip olarak sunulacak. İlk etapta Washington, DC çevresinde yürütülecek çalışmaların 2026 yılının Temmuz ayında tamamlanması planlanıyor. Geliştirilecek sistemlerin, doğrudan savaş araçlarına değil, arka planda çalışan idari süreçlere yönelik olarak tasarlanacağı ifade ediliyor.
OpenAI, bu projeyle birlikte kamu kurumlarına özel yeni bir programın da ilk adımını atmış oldu. Şirket, federal, eyalet ve yerel düzeydeki kamu kuruluşları için sınırlı kullanım iznine sahip modeller sunacağını açıkladı. Geliştirilecek tüm çözümlerin, şirketin mevcut kullanım politikalarına ve yönergelerine uygun şekilde tasarlanacağı belirtildi. Mevcut kurallar, yapay zekâ teknolojilerinin doğrudan silah üretiminde ya da fiziksel zarara neden olacak biçimlerde kullanılmasını yasaklıyor.
Projenin temel başlıkları arasında siber güvenlik, sağlık hizmetlerinin yönetimi ve büyük ölçekli veri analizleri yer alıyor. OpenAI tarafından yapılan açıklamada, yapılacak çalışmaların askerî personelin sağlık hizmetlerine erişimini iyileştirmek, satın alma ve program verilerini daha verimli analiz etmek gibi alanlara katkı sunacağı ifade edildi. Bu çerçevede geliştirilecek uygulamaların ilk olarak pilot bölgelerde test edilmesi, ardından daha geniş kullanım senaryolarına açılması bekleniyor.
OpenAI, kamu hizmetlerinde kullanılmak üzere sınırlı yapay zekâ desteği sunacak
Her ne kadar proje “sınırlı kullanım” ifadesiyle tanımlansa da, OpenAI’nin bu tür bir kamu iş birliğine ilk kez bu ölçekte adım attığı görülüyor. Şirket, Aralık 2024’te Anduril Industries ile başlattığı iş birliğiyle savunma teknolojilerine giriş yapmıştı. Bu iş birliği kapsamında, yapay zekânın karşı dron sistemlerine entegrasyonu gerçekleştirilmişti. O dönemden itibaren OpenAI’nin hizmet politikalarında da değişiklikler yapıldığı, özellikle “askerî kullanım yasağının” 2023 yılında kaldırıldığı biliniyor.
OpenAI’nin Pentagon ile imzaladığı bu sözleşme, daha büyük çaplı bir dönüşümün göstergesi olarak da değerlendirilebilir. ABD hükümeti son dönemde yapay zekâ uygulamalarını yalnızca sivil değil, aynı zamanda askerî alanda da kullanıma açmaya yönelik adımlar atıyor. Bu kapsamda AI Safety Institute adını taşıyan kuruluşun da yeniden yapılandırıldığı ve ulusal güvenlik odaklı projelere yönlendirildiği açıklandı. Böylelikle, kamu güvenliği ve askerî operasyonlar bağlamında yapay zekânın daha aktif biçimde devreye girmesi hedefleniyor.
Buna paralel olarak, benzer alanlarda faaliyet gösteren şirketlerin de pozisyonlarında değişiklikler gözleniyor. Anthropic, Haziran ayında savunma ve istihbarat kurumları için daha az sınırlayıcı kurallara sahip bir model tanıttı. Google, bu yılın başında “zarar ihtimali taşıyan yapay zekâ kullanımlarından kaçınma” taahhüdünü geri çekti. Meta ise geçen yıl Llama modelinin “ulusal güvenlik amaçlı” kullanımına onay vererek kamuya açık duruşunu yumuşattı.
Yapay zekânın kamu hizmetlerine ve savunma altyapısına entegre edilmesi, etik ve denetim boyutlarını da beraberinde getiriyor. OpenAI’nin bu süreçte uygulayacağı şeffaflık politikaları, hem şirketin kamuoyu karşısındaki konumunu hem de geliştirilen çözümlerin nasıl kullanılacağına dair güvenlik dengesini belirleyecek gibi görünüyor. Bu durum, özellikle gelecekte benzer iş birliklerinin kapsamının ve sınırlarının ne ölçüde genişleyebileceğine dair tartışmaları da gündeme getirebilir.