ManşetlerTeknoloji

Anthropic’ten Çinli yapay zekâ devlerine sert suçlama

claude 4.1 anthropic

Yapay zekâ alanında rekabet giderek sertleşirken, ABD merkezli Anthropic cephesinden çarpıcı bir suçlama geldi. Şirket; DeepSeek, Moonshot ve MiniMax adlı üç Çinli yapay zekâ girişiminin, Claude isimli sohbet botunu sistematik biçimde kötüye kullandığını öne sürdü. Anthropic tarafından yapılan açıklamada, söz konusu firmaların Claude’un yeteneklerini izinsiz şekilde çıkararak kendi modellerini geliştirmeye çalıştığı ifade edildi. Şirket, bu sürecin “endüstriyel ölçekte” yürütüldüğünü savunurken, durumun yalnızca rekabet meselesi olmadığını, aynı zamanda güvenlik ve etik boyutlar içerdiğini vurguladı. Buna rağmen ilgili şirketlerden kamuoyuna yansıyan doğrudan bir yanıt gelmiş değil.

Anthropic’in değerlendirmesine göre, yapay zekâ dünyasında “distillation” olarak bilinen yöntem temel tartışma noktası. Distilasyon, daha gelişmiş bir modelin ürettiği yanıtların, daha küçük veya daha az yetenekli bir modelin eğitilmesinde referans olarak kullanılması anlamına geliyor. Her ne kadar bu yöntem akademik çevrelerde ve açık kaynak projelerde yaygın bir teknik olarak kabul edilse de, Anthropic söz konusu örnekte bunun kötüye kullanıldığını savunuyor. Şirket, Claude’un yanıtlarının sistematik biçimde toplanarak rakip modellerin eğitimi için kullanıldığını iddia ediyor. Bu durumun, belirli güvenlik önlemlerinin dolaylı yoldan aşılmasına da zemin hazırlayabileceği belirtiliyor.

OpenAI da Anthropic ile benzer iddiaları gündeme getirmişti

Anthropic’in paylaştığı bilgilere göre; DeepSeek, Moonshot ve MiniMax ile ilişkilendirilen faaliyetler kapsamında yaklaşık 24 bin sahte hesap oluşturuldu. Bu hesaplar üzerinden Claude ile 16 milyondan fazla etkileşim gerçekleştirildiği öne sürülüyor. Şirket, IP adresi eşleşmeleri, meta veri talepleri ve altyapı göstergeleri sayesinde bu faaliyetleri ilgili firmalarla “yüksek güvenle” ilişkilendirdiğini belirtiyor. Bunun yanında, yapay zekâ sektöründeki diğer şirketlerle yapılan bilgi paylaşımı sonucunda benzer davranış kalıplarının doğrulandığı aktarılıyor.

Öte yandan distilasyon yöntemi tamamen yasa dışı bir uygulama olarak görülmüyor. Akademik araştırmalarda ve açık model geliştirme süreçlerinde bu teknikten sıklıkla yararlanılıyor. Fakat ticari rakiplerin, kapalı ve ücretli bir sistemi sahte hesaplar aracılığıyla yoğun biçimde kullanması farklı bir hukuki zemine işaret ediyor. Buna rağmen, uluslararası düzeyde yapay zekâ eğitimi ve veri kullanımı konusunda net ve bağlayıcı düzenlemelerin henüz tam anlamıyla oturmadığı biliniyor.

Benzer iddialar daha önce OpenAI tarafından da gündeme getirilmişti. 2024 yılı başlarında OpenAI, bazı rakip firmaların modellerini distilasyon yoluyla kopyalamaya çalıştığını açıklamış ve şüpheli hesapları yasaklamıştı. Bu gelişmeler, büyük yapay zekâ şirketlerinin model güvenliği ve veri koruma konularında daha katı önlemler almaya yöneldiğini gösteriyor. Anthropic de Claude’un altyapısında güncellemeler yaparak distilasyon temelli saldırıların tespitini kolaylaştıracağını ve önlenmesini zorlaştıracağını duyurdu.

Bununla birlikte Anthropic’in kendisi de hukuki baskılarla karşı karşıya. ABD’de bazı müzik yayıncıları, şirketin Claude’u eğitirken telif hakkıyla korunan şarkı sözlerini izinsiz kullandığını iddia ederek dava açtı. Her ne kadar bu dava distilasyon tartışmasından farklı bir bağlamda ilerlese de, yapay zekâ sektöründe veri kullanımı konusundaki hassasiyetin giderek arttığını gösteriyor. Tüm bunlara ek olarak, küresel ölçekte düzenleyici kurumların yapay zekâ şirketlerinin eğitim verisi, model güvenliği ve rekabet uygulamalarına daha yakından odaklandığı görülüyor.