Teknoloji

Anthropic sohbet verilerini yapay zekâ eğitiminde kullanmayı istiyor

claude anthropic

Anthropic, yapay zekâ alanındaki büyümesini sürdürürken kullanıcı politikalarında dikkat çekici bir değişikliğe gitti. Şirket, Claude sohbet robotunu kullanan herkesten 28 Eylül 2025’e kadar sohbet verilerinin eğitime dahil edilip edilmeyeceğine dair kesin bir karar talep ediyor. Bu tercih, yalnızca bireysel kullanıcıları kapsıyor. Kararın büyüklüğü ise önceki veri saklama düzenlemeleriyle karşılaştırıldığında çok daha geniş bir etkiye sahip.

Yeni düzenlemeyle birlikte kullanıcıların sohbetleri beş yıl boyunca tutulacak. Daha önce veriler en fazla 30 gün saklanıyor, yalnızca yasal gerekçelerle bu süre iki yıla çıkabiliyordu. Tüm bunların yanında, şirket bu verileri doğrudan model eğitimi için kullanacağını da açıkladı. Böylece Claude’un kodlama, analiz ve akıl yürütme becerilerinde daha verimli sonuçlar elde edilmesi hedefleniyor. Ne var ki bu hamle, kullanıcıların gizlilik beklentilerini zorlayan bir yön taşıyor.

Anthropic kurumsal çözümlerinde değişiklik yapmayacak

Yeni kurallar sadece Claude Free, Pro, Max ve Claude Code kullanıcıları için geçerli. Buna karşılık, Claude Gov, Claude for Work ve Claude for Education gibi kurumsal çözümler bu süreçten etkilenmiyor. Bunun yanında, kurumsal müşterilerin veri güvenliği için daha güçlü güvencelere sahip olduğu görülüyor. Bu ayrım, bireysel kullanıcı verilerinin eğitim için daha stratejik bulunduğunu ortaya koyuyor. Tüm bunların yanında, bu farklılık kullanıcılar arasında adalet tartışmasını gündeme getiriyor.

Şirket, söz konusu kararın tamamen kullanıcı tercihine bırakıldığını vurguluyor. Verilerini paylaşanların modellerin güvenlik yeteneklerinin artmasına katkı sağlayacağı öne sürülüyor. Buna rağmen uzmanlar, asıl gerekçenin yapay zekâ yarışında veriye duyulan ihtiyaç olduğunu belirtiyor. Öte yandan, milyonlarca gerçek kullanıcı sohbeti, sistemlerin bağlamı daha iyi anlamasını sağlayan eşsiz bir kaynak olarak öne çıkıyor. Bu nedenle şirketin rekabetçi gücünü artırmak istediği yönündeki görüşler de güçleniyor.

Kullanıcı deneyimi açısından bakıldığında ise önemli bir tasarım detayı dikkat çekiyor. Mevcut kullanıcılara gösterilen bildirimde büyük puntolarla “Kabul Et” butonu sunuluyor. Bunun hemen altında ise çok daha küçük yazıyla yer alan ve varsayılan olarak açık bırakılan veri paylaşım seçeneği bulunuyor. Bunun yanında, bu tasarım çoğu kişinin farkında olmadan onay vermesine neden olabilecek bir risk taşıyor. Ne var ki, şirket bu eleştirileri doğrudan yanıtlamış değil.

Tüm bunların yanında, ABD’de Federal Ticaret Komisyonu’nun geçmişte verdiği uyarılar hatırlanıyor. Şirketlerin gizlilik politikalarını kullanıcıların fark etmeyeceği biçimde değiştirmesi durumunda yaptırım uygulanabileceği belirtilmişti. Buna rağmen, bugün komisyonun bu tür uygulamaları ne ölçüde takip ettiği belirsizliğini koruyor. Bu belirsizlik, kullanıcı güvenliği açısından tartışmaların daha da yoğunlaşmasına yol açıyor. Öte yandan, kullanıcıların bilinçli onay vermesi hâlâ kritik bir mesele olarak görülüyor.

Sektör genelinde de benzer baskılar göze çarpıyor. OpenAI, The New York Times ve diğer yayıncıların açtığı dava nedeniyle tüm ChatGPT konuşmalarını süresiz saklamaya zorlayan bir mahkeme kararıyla karşı karşıya. Şirketin yöneticileri bu kararın kullanıcı gizliliğiyle çeliştiğini savunuyor. Bunun yanı sıra, benzer davaların diğer yapay zekâ şirketlerini de zorlayabileceği öngörülüyor. Bu bağlamda Anthropic’in yeni adımı, sektörün genel eğilimiyle uyumlu bir çizgiye işaret ediyor.

Kullanıcıların bilinçli karar verebilmesi ise giderek daha karmaşık hale geliyor. Pek çok kişi, detayları okumadan onay veriyor ya da verilen bilgilerin kapsamını tam olarak kavrayamıyor. Tüm bunların yanında, yapay zekâ şirketleri şeffaflık konusunda yeterli adım atmadıkları için eleştiriliyor. Ne var ki, kullanıcıların teknolojiye duyduğu ihtiyaç bu eleştirileri ikinci plana itiyor. Bu çelişki, tartışmaların derinleşmesini beraberinde getiriyor.

Veri eğitimi açısından bakıldığında, gerçek kullanıcı sohbetlerinin önemi oldukça büyük. Yapay zekâ sistemleri yalnızca yapay verilerle beslendiğinde daha sınırlı bir öğrenme sürecine giriyor. Buna ek olarak, günlük hayattan gelen etkileşimler sistemlerin farklı senaryolarda daha doğru yanıtlar vermesine yardımcı oluyor. Bu nedenle şirketler, kullanıcı verilerini kritik bir kaynak olarak konumlandırıyor. Her şeye rağmen, bunun gizlilikle nasıl dengeleneceği hâlâ netleşmiş değil.