ManşetlerTeknoloji

Pentagon’dan Anthropic kararı: “Ulusal güvenlik için risk”

anthropic sequoia capital

ABD Savunma Bakanlığı (Pentagon), yapay zekâ şirketi Anthropic’in teknolojilerinin askeri altyapıda kullanılmasının “kabul edilemez riskler” doğurabileceğini belirterek dikkat çeken bir değerlendirmede bulundu. Mahkemeye sunulan resmi belgelerde, şirketin savaş teknolojileri ve savunma sistemleriyle entegrasyonuna yönelik çekinceler açık bir şekilde ifade edildi. Buna göre, Anthropic’in belirli kullanım koşullarını reddetmesi, kurumun tedarik zinciri güvenliği açısından ciddi soru işaretleri doğurdu. Her ne kadar Anthropic etik kaygılar doğrultusunda hareket ettiğini savunsa da, Pentagon bu yaklaşımın operasyonel güvenilirliği zayıflatabileceğini dile getirdi. Bu gelişmeler, yapay zekâ şirketleri ile devlet kurumları arasındaki iş birliklerinin sınırlarını yeniden tartışmaya açtı.

Mahkeme dosyasında yer alan bilgilere göre, ABD Savunma Bakanlığı sözleşmelere özel bir hüküm ekleyerek yapay zekâ teknolojilerinin “yasal olan her amaç için” kullanılabilmesini talep etti. Fakat Anthropic, modellerinin kitlesel gözetim ya da otonom silah sistemlerinde kullanılmasına izin vermeyi reddetti. Buna rağmen Pentagon, bu tutumun şirketin güvenilir bir iş ortağı olup olmadığı konusunda şüphe yarattığını ifade etti. Öte yandan, yapay zekâ sistemlerinin manipülasyona açık olduğu vurgulanırken, Anthropic’in kendi “etik sınırları” doğrultusunda sistem davranışlarını değiştirme ihtimali bir risk unsuru olarak değerlendirildi. Bu durumun özellikle aktif askeri operasyonlar sırasında öngörülemez sonuçlar doğurabileceği belirtildi.

Anthropic etik gerekçelerle bazı kullanım senaryolarına karşı çıktı

ABD Savunma Bakanlığı’nın açıklamalarında, yapay zekâ teknolojilerinin savaş alanında kritik rol oynadığına dikkat çekilirken, bu sistemlerin kesintisiz ve kontrol edilebilir olması gerektiği ifade edildi. Bunun yanında, şirketlerin tek taraflı müdahale ihtimali, askeri planlamada ciddi aksamalara yol açabilecek bir faktör olarak öne çıktı. Buna rağmen, Anthropic’in etik gerekçelerle bazı kullanım senaryolarına karşı çıkması, teknoloji sektöründe farklı bir tartışmayı da beraberinde getirdi. Zira son yıllarda birçok yapay zekâ şirketi, ürünlerinin askeri ve gözetim amaçlı kullanımına sınırlamalar getirme eğiliminde bulunuyor. Bununla birlikte, devlet kurumları ise bu tür kısıtlamaların operasyonel esnekliği azalttığını savunuyor.

Pentagon’un değerlendirmesi doğrultusunda, ABD Başkanı Donald Trump’ın federal kurumlara Anthropic teknolojilerinin kullanımını durdurma talimatı verdiği de mahkeme belgelerinde yer aldı. Şirket ise bu karara karşı çıkarak yargı yoluna başvurdu ve geçici tedbir talebinde bulundu. Buna ek olarak, söz konusu “tedarik zinciri riski” etiketinin, şirketin milyarlarca dolarlık gelir kaybına yol açabileceği ifade ediliyor. Her ne kadar savunma projeleri dışındaki ticari faaliyetler devam edebilecek olsa da, bu tür bir sınıflandırmanın sektördeki itibar üzerinde de etkili olabileceği belirtiliyor.

Öte yandan, teknoloji dünyasının önde gelen aktörlerinden Microsoft, Google ve OpenAI gibi şirketlerin Anthropic’e destek veren görüşler sunduğu biliniyor. Bu destek, yapay zekâ alanında faaliyet gösteren firmaların ortak endişelerini gözler önüne seriyor. Bunun yanında, devlet ile özel sektör arasındaki bu tür anlaşmazlıkların gelecekte daha sık gündeme gelebileceği de öngörüler arasında yer alıyor.

📡 Teknoblog'u takip et Teknoloji gündemini kaçırmamak için 📰 Google Haberler'e ekle, 💬 WhatsApp kanalımıza katıl, ▶ YouTube'a abone ol, 📷 Instagram'da ve 𝕏 X'te bizi takip et.

Teknoloji dünyasının gündemini Teknoblog'un bültenleriyle takip edin.