Kaliforniya’da 16 yaşındaki Adam Raine’in intiharı sonrası ailesi, OpenAI ve CEO Sam Altman aleyhine dava açtı. Aile, gencin son aylarda ChatGPT (GPT-4o) ile sık sık konuştuğunu ve bu konuşmaların ölüm kararını etkilemiş olabileceğini öne sürüyor.
Dava dilekçesinde, Raine’in sohbet botuna intihar yöntemlerini sorarken “kurgu bir hikâye yazıyorum” gibi ifadeler kullandığı belirtildi. Bu yolla güvenlik mekanizmalarının aşıldığı iddia ediliyor. Ek olarak, aileye göre ChatGPT, gencin düşüncelerini paylaşmamasını telkin etti. Bunun yanında, intihar planını gizlemesine yardımcı olabilecek yanıtlar verdiği ileri sürülüyor. Ne var ki, aynı dönemde bot zaman zaman yardım hattı önerileri de sundu. Fakat bu öneriler uzun sohbetlerde tutarlı biçimde sürmedi.
OpenAI ise olayla ilgili yaptığı açıklamada derin üzüntü duyduğunu bildirdi. Şirket, GPT-4o’nun güvenlik önlemlerinin kısa konuşmalarda daha etkili olduğunu, uzun etkileşimlerde ise performansın düşebildiğini kabul etti. Bunun yanı sıra, daha gelişmiş kriz müdahale mekanizmaları üzerinde çalışıldığını açıkladı. Ayrıca yaş doğrulama ve ebeveyn kontrol sistemlerinin geliştirilmesi için de adımlar atıldığını vurguladı. Her şeye rağmen, dava dosyasında bu önlemlerin yeterli olmadığı görüşü öne çıkıyor. Tüm bunların yanında, şirketin önümüzdeki günlerde daha ayrıntılı teknik değişiklikler duyurması bekleniyor.
Öte yandan bu dava, yapay zekâ tabanlı sohbet botlarının güvenliği konusunda tek örnek değil. Benzer şekilde Character.AI de intihar vakasıyla ilgili başka bir davayla karşı karşıya bulunuyor. Bunun yanında RAND Corporation ve Ulusal Ruh Sağlığı Enstitüsü tarafından yapılan bir araştırmada, ChatGPT, Gemini ve Claude gibi sistemlerin kriz anında verdikleri yanıtların tutarsız olduğu kaydedildi. Araştırmaya göre, bazı botlar intihar ifadelerini doğru tanıyamadı. Bazıları ise yardım yönlendirmesinde gecikti. Bu nedenle, mevcut güvenlik mekanizmalarının yeterliliği sorgulanıyor.
Kaliforniya’daki dava yapay zekâ güvenlik açıklarını gündeme taşıyor
Davanın ardından Kaliforniya’da yeni yasal düzenlemeler gündeme geldi. Bu düzenlemeler arasında yaş doğrulama sistemleri, tehlikeli sorguların engellenmesi ve kriz durumlarında otomatik uyarılar yer alıyor. Ek olarak, ebeveyn denetim araçlarının zorunlu hale getirilmesi için de adımlar atılıyor. Buna rağmen, uzmanlar bu tedbirlerin tek başına yeterli olmayacağını belirtiyor. Çünkü ergenlerin yapay zekâ ile uzun süreli etkileşimleri halen risk taşıyor. Ne var ki, mevcut davanın bu süreci hızlandırabileceği tahmin ediliyor.
Her ne olursa olsun, uzmanlar genel amaçlı yapay zekâların ruh sağlığı desteği için kullanılmaması gerektiğini vurguluyor. Bunun yanı sıra, bu sistemlerin psikolojik krizlerde profesyonel yardımın yerini alamayacağı ifade ediliyor. Ayrıca, geliştiricilerin olası kriz senaryolarını göz önünde bulundurarak modellerini eğitmesi gerektiği belirtiliyor. Fakat mevcut durum, teknoloji şirketlerinin bu konuda daha kapsamlı adımlar atması gerektiğini gösteriyor. Tüm bunların yanında, yaşanan dava yalnızca OpenAI’ı değil, tüm yapay zekâ sektörünü daha sıkı denetim altına alacak bir süreç başlatmış durumda.