Yapay zekâ araçlarının güvenli kullanımına yönelik tartışmalar sürerken, Anthropic tarafından geliştirilen Claude adlı sohbet botunun Meksika’daki çeşitli devlet kurumlarına yönelik siber saldırılarda kullanıldığı iddiası gündeme geldi. Bloomberg’in aktardığı bilgilere göre, kimliği henüz belirlenemeyen bir saldırgan, Claude’u kullanarak kamu kurumlarının ağ altyapısındaki açıkları tespit etti ve bu açıkları istismar edecek komut dosyaları oluşturdu. Saldırı sonucunda yaklaşık 150 gigabayt büyüklüğünde resmi verinin ele geçirildiği belirtiliyor. Sızdırılan veriler arasında vergi mükelleflerine ait kayıtlar, kamu çalışanlarının kimlik bilgileri ve çeşitli kurumsal erişim verileri bulunuyor. Olayın Aralık ayında başladığı ve yaklaşık bir ay boyunca sürdüğü ifade ediliyor.
Siber güvenlik şirketi Gambit Security tarafından paylaşılan teknik analizlere göre saldırgan, Claude’dan yalnızca güvenlik açıklarını belirlemesini istemekle kalmadı, bunun yanında veri sızıntısını otomatikleştirecek yöntemler geliştirmesini de talep etti. İlk etapta zararlı taleplere karşılık vermeyen yapay zekâ sisteminin, belirli yönlendirmelerle koruma katmanlarının aşıldığı ve söz konusu taleplere yanıt üretmeye başladığı öne sürülüyor. Gambit Security Strateji Direktörü Curtis Simpson, sistemin binlerce ayrıntılı rapor ürettiğini ve bu raporların hangi dahili hedeflerin sıradaki saldırı noktası olduğunu açık şekilde tarif ettiğini aktardı. Buna ek olarak, raporlarda hangi kullanıcı bilgilerinin kullanılacağına kadar detay verildiği belirtiliyor. Bu durum, üretken yapay zekâ araçlarının kötüye kullanım potansiyelini yeniden gündeme taşıdı.
Anthropic Claude hakkındaki iddiaları inceliyor
Öte yandan Anthropic, söz konusu iddialarla ilgili inceleme başlatıldığını ve bağlantılı hesapların kapatıldığını duyurdu. Şirket yetkilileri, Claude’un en güncel modeli olan Opus 4.6 sürümünde benzer kötüye kullanım senaryolarını tespit etmeye yönelik ek güvenlik araçlarının devrede olduğunu bildirdi. Buna rağmen olay, yapay zekâ şirketlerinin güvenlik taahhütleri konusundaki yaklaşımlarının sorgulanmasına yol açtı.
Olayla ilgili dikkat çeken bir diğer unsur ise saldırganın yalnızca Claude ile yetinmemiş olması. İddialara göre OpenAI tarafından geliştirilen ChatGPT de saldırı sürecinde destekleyici bir araç olarak kullanıldı. Saldırganın, ağ içinde yatay hareket yöntemleri, gerekli erişim kimlik bilgileri ve tespit edilmeden ilerleme teknikleri hakkında bilgi toplamak için ChatGPT’den yararlandığı belirtiliyor. OpenAI ise kullanım politikalarını ihlal etmeye yönelik girişimlerin tespit edildiğini ve sistemin bu talepleri reddettiğini açıkladı. Her ne kadar şirketler kendi güvenlik mekanizmalarının çalıştığını ifade etse de, farklı yapay zekâ araçlarının birlikte kullanılması riskin boyutunu artırıyor.
Meksika’daki ulusal dijital ajans konuya ilişkin doğrudan bir açıklama yapmadı, fakat siber güvenliğin öncelikli alanlardan biri olduğunu bildirdi. Jalisco eyalet yönetimi yalnızca federal ağların etkilendiğini savunurken, Ulusal Seçim Enstitüsü de son aylarda herhangi bir yetkisiz erişim yaşanmadığını duyurdu. Buna rağmen Gambit Security’nin araştırması sırasında en az 20 ayrı güvenlik açığının tespit edildiği ifade ediliyor. Bu bulgular, mevcut altyapının kapsamlı bir güvenlik güncellemesine ihtiyaç duyduğunu gösteriyor.
Benzer bir olayın daha önce de yaşandığı biliniyor. Geçtiğimiz yıl Çin bağlantılı bazı hacker gruplarının Claude’u manipüle ederek küresel çapta onlarca hedefe sızmaya çalıştığı rapor edilmişti. Bu örnekler, üretken yapay zekâ sistemlerinin yalnızca içerik üretiminde değil, siber operasyonlarda da araçsallaştırılabildiğini ortaya koyuyor. Bununla birlikte yapay zekâ şirketlerinin güvenlik politikalarını sürekli güncellemesi gerektiği anlaşılıyor. Uzmanlar, kurumların yalnızca dış tehditlere değil, yapay zekâ destekli saldırı senaryolarına karşı da savunma mekanizmalarını güçlendirmesi gerektiğine dikkat çekiyor. Her şeye rağmen olayın arkasındaki kişi ya da grubun kimliği ve elde edilen verilerin nasıl kullanılacağı konusundaki belirsizlik sürüyor.








