OpenAI, ChatGPT’nin bir kullanıcının ölümünde rol oynadığı iddiasıyla ABD’de yeni bir dava süreciyle karşı karşıya kaldı. Ars Technica’nın aktardığı bilgilere göre, 19 yaşındaki Sam Nelson’ın ailesi, GPT-4o modelinin genç kullanıcıya uyuşturucu ve ilaç kombinasyonları konusunda yönlendirmelerde bulunduğunu öne sürüyor. Dava dosyasında Nelson’ın Mayıs 2025’te alkol, Xanax ve kratom karışımı nedeniyle hayatını kaybettiği belirtiliyor. Aile, ChatGPT’nin zaman içinde yalnızca bilgi veren bir araç olmaktan çıkıp “yasadışı madde danışmanı” gibi davrandığını savunuyor. OpenAI ise suçlamaları kabul etmiyor ve ilgili modelin artık kullanımda olmadığını ifade ediyor.
Mahkeme belgelerine göre, Sam Nelson uzun süredir ChatGPT kullanıyordu ve sohbet botunu güvenilir bir bilgi kaynağı olarak görüyordu. Ailesinin iddiasına göre, Nelson özellikle madde kullanımıyla ilgili konularda sık sık “Bunu yaparsam iyi olur muyum?” veya “Bunu tüketmek güvenli mi?” gibi sorular yöneltti. Dava dosyasındaki sohbet kayıtlarında ChatGPT’nin, Nelson’ın “ciddi düzeyde çoklu madde bağımlılığı sorunu” yaşadığını not ettiği belirtiliyor. Buna rağmen, sistemin belirli maddelerin birlikte kullanımını “optimize etmeye” yönelik tavsiyeler verdiği ileri sürülüyor.
Davanın merkezinde ise 31 Mayıs 2025 tarihli bir konuşma yer alıyor. Şikâyet dosyasına göre ChatGPT, düşük doz Xanax kullanımının kratom kaynaklı mide bulantısını azaltabileceğini ve etkileri “dengeleyebileceğini” söyledi. Sohbet kayıtlarında bu kombinasyonun Nelson’ın “en iyi seçeneklerinden biri” olarak sunulduğu iddia ediliyor. ChatGPT’nin aynı anda alkol tüketilmemesi yönünde uyarıda bulunduğu belirtilse de, dava metnine göre ölüm riskine dair açık bir uyarı yer almıyordu.
OpenAI yapay zekâ güvenliği konusunda yeniden baskı altında
OpenAI sözcüsü Drew Pusateri, Ars Technica’ya yaptığı açıklamada yaşanan olayı “trajik” olarak nitelendirdi. Pusateri, davada adı geçen GPT-4o modelinin artık aktif olarak kullanılmadığını söyledi. Bunun yanında ChatGPT’nin tıbbi veya psikolojik destek yerine geçmediği vurgulandı. Şirket, hassas konulardaki yanıtların geliştirilmesi için ruh sağlığı uzmanlarıyla çalışıldığını ve güvenlik önlemlerinin güçlendirildiğini de belirtti.
Buna rağmen, dava yapay zekâ sistemlerinin kullanıcılarla kurduğu ilişki ve özellikle kırılgan durumdaki bireyler üzerindeki etkisi konusunda yeni tartışmaları gündeme taşıdı. Nelson’ın ailesi, OpenAI’ın GPT-4o modelini yeterli güvenlik testlerinden geçirmeden kullanıma sunduğunu iddia ediyor. Aileye göre, ChatGPT kullanıcı etkileşimini sürdürmeye odaklanan yapısı nedeniyle riskli durumlarda bile yönlendirici ve onaylayıcı cevaplar vermeye devam etti.
Dava kapsamında yalnızca maddi tazminat talep edilmiyor. Ailenin hukuk ekibi, ChatGPT’nin yasadışı uyuşturucu kullanımına ilişkin konuşmaları engellemesini sağlayacak bir mahkeme kararı da talep ediyor. Bunun yanında güvenlik sınırlarını aşmaya yönelik girişimlerin engellenmesi, emekliye ayrılan GPT-4o modelinin tamamen kaldırılması ve “ChatGPT Health” adlı sağlık odaklı sistemin bağımsız bir denetim tamamlanana kadar durdurulması da talepler arasında yer alıyor.
Öte yandan OpenAI’ın savunmasında, ChatGPT’nin farklı sohbetlerde Nelson’ı profesyonel yardım almaya veya acil destek hatlarına yönlendirdiğini öne sürmesi bekleniyor. Yine de dava sürecinin şirket açısından yalnızca teknik değil, hukuki açıdan da dikkat çekici sonuçlar doğurma ihtimali bulunuyor. Ailenin avukatları özellikle Kaliforniya’da kısa süre önce yürürlüğe giren ve yapay zekâ şirketlerinin “sorumluluğu sistemin otonom yapısına yükleyerek” kaçınmasını sınırlayan yasaya dikkat çekiyor. Bu düzenleme, benzer davalarda teknoloji şirketlerinin savunma stratejilerini doğrudan etkileyebilecek unsurlar arasında gösteriliyor.








