ManşetlerTeknoloji

Anthropic CEO’su Pentagon ile yapay zekâ görüşmelerini yeniden başlattı

claude 3.5 sonnet anthropic

ABD merkezli yapay zekâ şirketi Anthropic ile ABD Savunma Bakanlığı arasında daha önce gerilen ilişkilerin ardından yeni müzakerelerin başladığı bildiriliyor. Financial Times ve Bloomberg tarafından paylaşılan bilgilere göre, şirketin CEO’su Dario Amodei, Anthropic’in geliştirdiği yapay zekâ modellerinin askeri alanda kullanımıyla ilgili yeni bir anlaşma zemini arıyor. Görüşmelerin özellikle Savunma Bakanlığı Araştırma ve Mühendislik Müsteşarı Emil Michael ile yürütüldüğü ifade ediliyor. Taraflar daha önce benzer bir sözleşme üzerinde çalışmış olsa da belirli maddeler konusunda anlaşma sağlanamaması nedeniyle süreç kesintiye uğramıştı. Buna rağmen son dönemde yeniden temas kurulması, iki tarafın da yeni bir uzlaşma formülü aradığına işaret ediyor.

Daha önceki müzakerelerde en büyük anlaşmazlık noktalarından biri, Anthropic’in teknolojisinin kitlesel gözetim amacıyla kullanılmasını önlemeye yönelik sözleşme dili olmuştu. Financial Times’ın aktardığı bilgilere göre, şirket sözleşmede yapay zekâ modellerinin geniş çaplı veri analizine dayalı gözetim faaliyetlerinde kullanılmasını engelleyen açık bir ifade bulunmasını talep etti. Ne var ki, Pentagon bu ifadelerden birinin sözleşmeden çıkarılmasını istedi. Söz konusu ifade “toplu biçimde elde edilen verilerin analizi” ile ilgiliydi ve şirket yönetimi bu maddenin kaldırılmasının riskli sonuçlar doğurabileceğini savundu. Anthropic bu talebe olumlu yaklaşmadı ve taraflar arasındaki görüşmeler bu noktada tıkandı.

Anthropic ve Pentagon 2025’te anlaşmıştı

Anthropic ile Pentagon arasındaki iş birliği aslında 2025 yılında imzalanan yaklaşık 200 milyon dolarlık bir sözleşmeye dayanıyor. Buna rağmen anlaşmazlıkların derinleşmesi üzerine ABD yönetimi şirketi “tedarik zinciri riski” olarak değerlendirme ihtimalini gündeme getirdi. Bu tür bir sınıflandırma genellikle Çin merkezli teknoloji şirketleri için kullanılıyor. Her şeye rağmen söz konusu değerlendirme tehdidi, şirket ile hükümet arasındaki ilişkilerin ciddi biçimde gerildiğini ortaya koydu. ABD Başkanı Donald Trump da daha sonra federal kurumlara Anthropic teknolojisinin kullanımını durdurma talimatı verdi.

Bununla birlikte hükümet sistemlerinde Anthropic teknolojisinin tamamen devre dışı bırakılması için altı aylık bir geçiş süresi tanındığı belirtiliyor. Bloomberg’in aktardığı bilgilere göre bu süreçte bazı askeri operasyonlarda Anthropic’in yapay zekâ araçlarından yararlanıldı. Özellikle İran’a yönelik bir hava saldırısının planlama aşamalarında bu teknolojilerin kullanıldığı iddia ediliyor. Öte yandan bu iddiaların tüm ayrıntıları resmi kaynaklar tarafından doğrulanmış değil. Yine de savunma alanında yapay zekâ kullanımının giderek artması, teknoloji şirketleri ile devlet kurumları arasındaki ilişkileri daha karmaşık bir hale getiriyor.

Şirket içi bir açıklama yapan Dario Amodei, OpenAI’ın kamuoyuna verdiği bazı mesajların gerçeği yansıtmadığını savundu. Financial Times’ın aktardığına göre Amodei, OpenAI’ın söylemlerini “doğrudan yanlış bilgiler” olarak nitelendirdi. Bunun yanında şirketin Vaşington ile yaşadığı sorunların arkasında siyasi faktörlerin de olabileceğini ima etti. Amodei, bazı teknoloji yöneticilerinin siyasi liderlere yönelik övgü dolu açıklamalar yaptığını, kendisinin ise böyle bir yaklaşım benimsemediğini ifade etti.

OpenAI cephesinde ise farklı bir tablo bulunuyor. Şirket kısa süre önce ABD Savunma Bakanlığı ile kendi yapay zekâ modellerinin kullanımına yönelik bir anlaşma yaptığını duyurmuştu. CEO Sam Altman, sosyal medya üzerinden yaptığı açıklamada Anthropic’in “tedarik zinciri riski” olarak sınıflandırılmaması gerektiğini söylediğini belirtti. Buna rağmen, Altman, eğer sözleşme koşulları OpenAI’ın anlaşmasına benziyorsa Anthropic’in de anlaşmayı kabul etmesinin daha doğru olacağını düşündüğünü dile getirdi.

📡 Teknoblog'u takip et Teknoloji gündemini kaçırmamak için 📰 Google Haberler'e ekle, 💬 WhatsApp kanalımıza katıl, ▶ YouTube'a abone ol, 📷 Instagram'da ve 𝕏 X'te bizi takip et.