Kanada’nın British Columbia eyaletinde yer alan Tumbler Ridge kasabasında 10 Şubat’ta gerçekleşen ve ülke tarihinin en ölümcül okul saldırılarından biri olarak kayda geçen olayın ardından, hayatını kaybedenlerin aileleri OpenAI’a karşı dava süreci başlattı. OpenAI CEO’su Sam Altman’ın olay sonrası kasaba halkına yönelik yayımladığı özür mesajından yalnızca birkaç gün sonra gelen bu gelişme, şirketin yapay zekâ güvenlik politikalarını yeniden tartışmaya açtı.
Söz konusu saldırıda 18 yaşındaki Jesse Van Rootselaar, yerel bir liseye girerek beş öğrenci ve bir öğretmeni öldürdü, iki kişiyi ise ağır yaraladı. Saldırganın daha sonra yaşamına son verdiği belirtilirken, polis soruşturması Van Rootselaar’ın olaydan önce annesini ve 11 yaşındaki üvey kardeşini de öldürdüğünü ortaya koydu. Bu yönüyle olay, yalnızca okul saldırısı değil, aynı zamanda çok yönlü bir aile trajedisi olarak da değerlendiriliyor.
NPR tarafından aktarılan bilgilere göre, kurban ailelerini temsil eden avukatlar çarşamba günü San Francisco’daki federal mahkemede altı ayrı dava açtı. Davalardan biri, saldırıdan sağ kurtulan Maya Gebala adına hazırlanırken, OpenAI’ın güvenlik sistemlerinin Haziran 2025’te Van Rootselaar’ın ChatGPT ile yaptığı görüşmeleri “silahlı şiddet faaliyeti ve planlama” kapsamında işaretlediği iddiasını içeriyor. Buna rağmen şirketin ilgili hesabı kapatmakla yetindiği, güvenlik ekibinin yetkililere bildirim yapılması yönündeki önerisinin uygulanmadığı öne sürülüyor.
OpenAI güvenlik süreçlerini nasıl güncelledi?
Dava dosyasında yer alan iddialara göre, ilk hesabı kapatılan saldırganın daha sonra yeni bir hesap oluşturarak ChatGPT ile iletişimini sürdürdüğü belirtiliyor. Bu durum, platformlarda hesap kapatma gibi önlemlerin tek başına yeterli olup olmadığı sorusunu gündeme getiriyor. Öte yandan OpenAI cephesi, araçlarının şiddet amaçlı kullanımına karşı “sıfır tolerans” politikası uygulandığını vurguluyor.
Şirket sözcüsü tarafından yapılan açıklamada, Kanada’daki yetkililerle paylaşılan bilgiler doğrultusunda çeşitli önlemlerin güçlendirildiği ifade edildi. Buna göre ChatGPT’nin kullanıcıların ruhsal durumuna dair işaretleri daha iyi analiz etmesi, yerel destek ve ruh sağlığı kaynaklarına yönlendirme yapması ve potansiyel şiddet risklerini daha hızlı tespit edip üst mercilere iletmesi için sistemlerde güncellemeler yapıldı. Bunun yanında tekrar eden ihlalleri tespit etmeye yönelik mekanizmaların da geliştirildiği aktarıldı.
OpenAI’ın kısa süre önce yayımladığı bir blog yazısında ise, riskli davranışların her zaman tek bir mesajla anlaşılmadığı, uzun süreli konuşmaların bütününde ortaya çıkan kalıpların daha belirleyici olabileceği vurgulandı. Bu yaklaşım, yapay zekâ tabanlı sistemlerin bağlamsal analiz kapasitesinin artırılmasına yönelik çalışmaların sürdüğünü gösteriyor.
Tumbler Ridge davası, yapay zekâ şirketlerinin ürün tasarımı ve güvenlik sorumluluğu açısından karşı karşıya kaldığı hukuki süreçlerin son örneklerinden biri olarak öne çıkıyor. Geçtiğimiz yaz da benzer şekilde, 2025 yılında intihar eden bir gencin ailesi ChatGPT’nin önceki girişimleri fark ettiğini iddia ederek OpenAI’a dava açmıştı. Bu tür davalar, yapay zekâ platformlarının kullanıcı davranışlarına ne ölçüde müdahale etmesi gerektiği sorusunu daha geniş bir çerçevede tartışmaya açıyor.







