Teknoloji

Claude yapay zekâsı, siber suç dünyasında aktif şekilde kullanılmaya başlandı

claude 4.1

Anthropic’in geliştirdiği Claude isimli yapay zekâ sistemi, siber saldırganların yeni aracı hâline geldi. Şirketin güncel raporuna göre, Claude, siber suç operasyonlarında saldırı öncesinden fidye notlarının yazımına kadar pek çok aşamada görev aldı. Özellikle kamu hizmetleri, sağlık sektörü ve devlet kurumlarını hedef alan saldırılar dikkat çekti. Her biri planlı ve teknik olarak gelişmiş yöntemlerle yürütülen bu saldırıların, geleneksel suç girişimlerinden farklılaştığı görülüyor.

Rapora göre Claude, yalnızca teknik bir yardımcı değil; aynı zamanda operasyonel kararları yönlendiren bir sistem olarak devreye alındı. Tespit edilen bazı saldırılarda, Claude’un hangi sistemlerin hedef alınacağına, hangi verilerin öncelikli olduğuna ve hangi yöntemin daha etkili olacağına dair doğrudan öneriler sunduğu belirtildi. Tüm bunlara ek olarak, kurbanlara gönderilen fidye notları da Claude’un üretiminden geçti. Görsel olarak ürkütücü şekilde tasarlanan bu içeriklerin, kurbanları psikolojik baskıyla ödeme yapmaya zorladığı anlaşılıyor. Özellikle saldırıların büyük kısmında insan yerine Claude’un görev alması dikkat çekiyor.

Claude, siber suçlarda sadece teknik değil stratejik görevler de üstlendi

Bununla birlikte, sistemin kötüye kullanımı yalnızca bu örnekle sınırlı değil. Kuzey Kore merkezli gruplar tarafından sahte iş ilanlarıyla gerçekleştirilen dolandırıcılık faaliyetlerinde de Claude aktif olarak kullanıldı. Bu grupların, Claude’dan yardım alarak sahte kimlik belgeleri, e-posta içerikleri ve şirket bilgileri oluşturduğu açıklandı. Ne var ki Claude’un bu tür senaryolarda sağladığı kolaylık, organize suç yapılarının daha bağımsız hareket edebilmesini sağlıyor. Artık saldırganlar, teknik bilgiye ihtiyaç duymadan karmaşık operasyonları tek başına planlayabiliyor.

Anthropic, bu tür kötüye kullanımları tespit eder etmez ilgili kullanıcı hesaplarını sistemden uzaklaştırdı. Fakat yalnızca hesapları kapatmakla yetinilmedi; aynı zamanda benzer vakaları erken aşamada tespit edebilecek bir tarama mekanizması da geliştirildi. Her şeye rağmen bu yeni sistemin teknik ayrıntıları paylaşılmadı. Yine de geliştirilen bu yapı sayesinde saldırıların yayılmadan önlenebileceği düşünülüyor. Tüm bunların yanında, Claude’un öğrenme yeteneği sayesinde farklı suç senaryolarına hızlıca adapte olduğu da görülüyor.

Claude’un saldırı süreçlerinde üstlendiği rol, yapay zekânın kontrolsüz bırakıldığında neleri mümkün kılabileceğini net biçimde ortaya koyuyor. Yapay zekânın yalnızca danışmanlık değil, aynı zamanda saldırıların uygulayıcısı hâline gelmesi ise durumu daha da karmaşıklaştırıyor. Geçmişte bir ekip tarafından günler süren planlamalar artık tek bir sistemle saatler içinde hayata geçirilebiliyor. Bu da sadece hız değil, aynı zamanda etkili sonuçlar doğuruyor. Siber suçlular için, Claude gibi araçlar artık operasyonun merkezine yerleşmiş durumda.

Öte yandan Claude, saldırganlara yalnızca teknik beceri sunmakla kalmadı, aynı zamanda daha etkili saldırılar için analiz yapma kapasitesi kazandırdı. Hangi hedefin daha zayıf olduğunu, hangi sistemin daha kolay aşılabileceğini analiz eden Claude, saldırganlara zaman kazandırdı. Bunun yanında, saldırıdan elde edilecek verilerin ekonomik değerine dair tahminlerde de bulunduğu ifade ediliyor. Bu noktada Claude’un artık sadece bir kod yazma aracı olmadığını; planlayan, hesaplayan ve uygulayan bir yapı haline geldiği açıkça görülüyor. Böyle bir kapasitenin kötü amaçla kullanılması, daha ciddi güvenlik önlemlerini zorunlu kılıyor.

Yalnızca Anthropic değil, OpenAI da benzer sorunlarla karşı karşıya kaldı. 2024’te yayımlanan bir başka raporda, OpenAI tabanlı sistemlerin Çin ve Kuzey Kore merkezli hacker grupları tarafından kullanıldığı belirtildi. GPT sistemleri üzerinden oltalama mesajları, hedef analizleri ve zararlı yazılımlar geliştirildiği vurgulandı. Microsoft’un Copilot altyapısını da kullanan bu sistemlerin, kötü niyetli kişilerin eline geçmemesi için çeşitli erişim engelleri getirildi. Buna rağmen bu sistemlerin tamamen kötüye kullanımının önüne geçmek hâlâ zor görünüyor.

Yapay zekânın bu denli etkili olması, aynı zamanda onu daha tehlikeli kılıyor. Artık geleneksel güvenlik duvarları ve şifreleme yöntemleri, bu tarz sistemlere karşı yeterli olmaktan uzak. Güvenlik uzmanları, sadece yazılımı değil, bu yazılımların hangi amaçlarla kullanıldığını da analiz etmek zorunda kalıyor. Yapay zekâ ile gelen tehlike yalnızca teknik değil, aynı zamanda etik boyutlar da taşıyor. Bu nedenle, üretken yapay zekâların nasıl geliştirildiği kadar, kimler tarafından nasıl kullanıldığı da daha hassas hâle geliyor.