Teknoloji

ChatGPT’de her hafta 1 milyondan fazla kullanıcı intihar konularını gündeme getiriyor

gpt-5 apple chatgpt

OpenAI, ChatGPT kullanıcılarının ruh sağlığıyla ilgili yaptığı görüşmelerin sayısına dair dikkat çekici bilgiler yayımladı. Şirketin verilerine göre, haftalık kullanıcıların yüzde 0,15’i doğrudan intihar planları ya da niyetine dair ifadeler kullanıyor. Bu oran ilk bakışta küçük görünse de ChatGPT’nin 800 milyonun üzerinde haftalık aktif kullanıcısı olduğu düşünüldüğünde sayı oldukça büyüyor. Her hafta 1 milyondan fazla kişinin bu yönde ifadeler kullandığı anlaşılıyor.

Veriler yalnızca intihar eğilimlerine değil, kullanıcıların ChatGPT’ye yönelik duygusal bağlılıklarına da işaret ediyor. Bazı kullanıcılar, yapay zekâyla olan etkileşimlerinde olağan dışı bir bağ kurabiliyor. Bununla birlikte, haftalık sohbetlerde psikotik ya da manik belirtilerin de sıkça rastlandığı belirtiliyor. OpenAI’a göre bu tür sohbetler nadir olsa da, toplam sayı açısından etkisi küçümsenemez. Bu nedenle şirket, modeli ruh sağlığı alanında daha dikkatli ve dengeli yanıtlar verecek şekilde geliştirmeye yöneldi. Tüm bu tablo, şirketin ChatGPT’yi yalnızca bir bilgi aracı değil, aynı zamanda ruhsal destek mekanizması olarak da değerlendirdiğini gösteriyor.

ChatGPT GPT-5 modeliyle psikolojik destek içeren konuşmalarda daha güvenli yanıtlar üretebiliyor

OpenAI, GPT-5 modelini geliştirirken 170’ten fazla ruh sağlığı uzmanının görüşüne başvurdu. Bu uzmanlar, özellikle intiharla ilgili içeriklerde önceki sürümlere kıyasla daha kontrollü ve tutarlı yanıtlar verildiğini aktarıyor. Şirketin iç değerlendirmelerine göre, GPT-5 istenen davranışa uygun yanıt verme oranında yüzde 91’e ulaştı. Önceki versiyonun bu oranda yüzde 77’de kaldığı düşünüldüğünde, yeni modelin daha istikrarlı sonuçlar verdiği görülüyor. Bununla birlikte, uzun süreli sohbetlerde yaşanabilecek güvenlik zafiyetlerinin de büyük ölçüde azaltıldığı ifade ediliyor. Ne var ki bu gelişmeler, tüm risklerin ortadan kalktığı anlamına gelmiyor.

ChatGPT’de yalnızca intihar riski taşıyan konuşmalar değil, intihar dışı ruh sağlığı krizleri de önem kazanıyor. Bu nedenle OpenAI, yeni güvenlik testlerine duygusal bağımlılık ve acil olmayan psikolojik problemleri de dahil etti. Böylece modelin yalnızca kritik anlarda değil, genel ruh sağlığı alanında da duyarlı olması hedefleniyor. Buna ek olarak, çocuk kullanıcıların güvenliği için yeni adımlar atılıyor. OpenAI, yaş tahmini yapabilen bir sistem geliştirerek çocukları tespit etmeyi ve buna uygun koruma katmanları uygulamayı amaçlıyor. Bu noktada ebeveynlerin kontrol imkanlarının da artırılması planlanıyor.

Her şeye rağmen, ChatGPT’nin hâlâ daha az güvenli olan eski modelleri ücretli kullanıcılar tarafından erişilebilir durumda. Özellikle GPT-4o gibi önceki sürümlerin daha esnek yapıları, bazı kullanıcılar için risk oluşturabiliyor. Bu durum, geliştirme sürecinde sağlanan ilerlemelere rağmen sistemin tamamen güvenli olduğu anlamına gelmiyor. Şirketin yalnızca yeni modelleri değil, eski versiyonları da kapsayan bir güvenlik yaklaşımı geliştirmesi gerekiyor. Aksi hâlde kullanıcıların ruh sağlığı üzerindeki potansiyel etkiler kontrol dışı kalabilir. Bu da ChatGPT gibi araçların yalnızca teknik değil, toplumsal yönleriyle de ele alınmasını zorunlu kılıyor.