OpenAI CEO’su Sam Altman, şirketin ABD Savunma Bakanlığı ile yaptığı anlaşmada değişikliğe gidileceğini ve yapay zekâ sistemlerinin Amerikalılara yönelik kitlesel gözetim amacıyla kullanılmasının açık şekilde yasaklanacağını duyurdu. Altman, daha önce çalışanlara gönderdiği dahili bir notu X platformunda paylaşarak söz konusu düzenlemenin ayrıntılarını kamuoyuna açıkladı. Buna göre anlaşmaya, ABD Anayasası’nın Dördüncü Değişikliği başta olmak üzere Ulusal Güvenlik Yasası ve 1978 tarihli FISA gibi ilgili mevzuata atıf yapan açık bir hüküm eklenecek. Şirket, yapay zekâ sistemlerinin ABD vatandaşları ve ülke içinde bulunan kişiler üzerinde kasıtlı gözetim amacıyla kullanılmayacağını metne net ifadelerle yazacak. Böylece ticari yollarla edinilmiş kişisel veriler üzerinden izleme ya da takip faaliyetlerinin de kapsam dışında olduğu vurgulanacak.
Altman’ın paylaştığı metinde, Savunma Bakanlığı’nın bu sınırlamayı kabul ettiği ve sözleşmede değişiklik yapılmadan Ulusal Güvenlik Ajansı (NSA) dahil istihbarat birimlerinin OpenAI hizmetlerini kullanamayacağının teyit edildiği bilgisi yer aldı. Bunun yanında Altman, anayasaya aykırı olduğuna inandığı bir talimatla karşılaşması halinde buna uymak yerine hukuki sonuçlarına katlanmayı tercih edeceğini ifade etti. Bu açıklama, teknoloji şirketlerinin kamu kurumlarıyla yaptığı anlaşmalarda etik ve hukuki çerçevenin nasıl çizileceğine dair tartışmaları yeniden gündeme taşıdı.
OpenAI iletişim hatalarını kabul etti
OpenAI cephesinde yapılan açıklamalarda, anlaşmanın kamuoyuna duyurulma sürecinde iletişim hataları yaşandığı da kabul edildi. Altman, 27 Şubat Cuma günü yapılan duyurunun aceleye getirildiğini ve konunun “son derece karmaşık” olduğunu belirtti. Her ne kadar daha büyük bir krizi önleme amacı güdüldüğü ifade edilse de, zamanlama nedeniyle sürecin fırsatçı bir adım gibi algılandığı kabul edildi. Duyurunun, ABD Başkanı Donald Trump’ın federal kurumlara Anthropic’in Claude modeli dahil bazı yapay zekâ hizmetlerini kullanmayı durdurma talimatı vermesinin hemen ardından gelmesi dikkat çekti.
Öte yandan Savunma Bakanlığı’nın, Anthropic üzerinde yapay zekâ sistemlerindeki güvenlik kısıtlamalarını gevşetmesi yönünde baskı kurduğu iddia edildi. Bu talepler arasında kitlesel gözetim uygulamaları ve tam otonom silah sistemlerinin geliştirilmesi gibi başlıkların yer aldığı öne sürüldü. Anthropic ise yaptığı açıklamada, kitlesel yerel gözetim ve tamamen otonom silahlar konusundaki tutumunun değişmeyeceğini bildirdi. Buna rağmen Bakanlık, şirketi “tedarik zinciri riski” olarak sınıflandırma yönünde ilk adımları attı. Bu tür bir tanımlama genellikle yabancı ve özellikle Çin merkezli şirketler için kullanılıyor.
Altman, ABD’li yetkililerle yaptığı görüşmelerde Anthropic’in bu şekilde etiketlenmemesi gerektiğini dile getirdiğini belirtti. Buna ek olarak, Savunma Bakanlığı’nın Anthropic’e de OpenAI ile benzer şartlar sunmasını umduğunu aktardı. Yine de Anthropic’in mevcut sözleşme koşulları hakkında ayrıntılı bilgi sahibi olmadığını ifade etti.
Tüm bunlara ek olarak, yaşanan gelişmeler uygulama mağazalarındaki rekabete de yansıdı. Anlaşma haberinin ardından Anthropic’in Claude uygulaması, ABD App Store’daki ücretsiz uygulamalar listesinde zirveye yükseldi ve ChatGPT ile Google Gemini’yi geride bıraktı. Bunun yanında Claude için geliştirilen hafıza aktarım aracı, kullanıcıların farklı sohbet botlarından geçişini kolaylaştırdı. Sensor Tower verilerine göre ChatGPT uygulamasındaki günlük silme oranı yüzde 295 artış gösterdi.






