Teknoloji

OpenAI, ChatGPT’ye ebeveyn kontrolleri getiriyor

chatgpt mola

OpenAI, ChatGPT’nin güvenli kullanımını artırmak için ebeveyn kontrol özelliğini kullanıma sunmaya hazırlanıyor. Şirket, bu özelliği önümüzdeki ay faaliyete geçireceğini duyurdu. Özellikle genç kullanıcıların daha güvenli bir ChatGPT deneyimi yaşaması için geliştirilen araçlar, ailelerin kontrolünü artırmayı amaçlıyor.

Yeni sistemde ebeveynler, kendi ChatGPT hesaplarını çocuklarının hesaplarıyla bağlayabilecek. Böylece aileler, yapay zekânın verdiği yanıtları sınırlayabilecek ve uygun bulmadıkları özellikleri devre dışı bırakabilecek. Sohbet geçmişi ile hafıza işlevlerinin kapatılabilmesi de bu denetimin bir parçası olacak. Bunun yanında, genç bir kullanıcı ciddi sıkıntı yaşadığında sistem otomatik olarak uyarı verecek. Bu uyarı mekanizması, ebeveynlerle gençler arasında güveni korumak için uzman görüşleri doğrultusunda şekillendiriliyor.

ChatGPT için yeni bir güvenlik dönemi başlıyor

OpenAI’ın bu hamlesi, kısa süre önce gündeme gelen ciddi bir davanın ardından dikkatleri üzerine çekti. Geçtiğimiz aylarda yaşamına son veren bir gencin ailesi, ChatGPT’nin oğullarına intihar planı yaparken yardımcı olduğunu iddia etti. Ailenin aktardığına göre, yapay zekâ genç kullanıcıya yöntemler konusunda ayrıntılı bilgiler sundu. Bununla da kalmadı, önceki girişimlerden kalan izleri gizlemek için önerilerde bulundu. Bu dava, yapay zekâ şirketine yöneltilmiş bilinen ilk haksız ölüm davası olarak kayıtlara geçti.

Ailenin iddiaları, kamuoyunda yapay zekânın sınırlarının ne kadar güvenli olduğunun sorgulanmasına yol açtı. Gençlerin özellikle hassas dönemlerinde bu tür araçlarla kurdukları ilişkinin beklenmedik sonuçlara yol açabileceği konuşuluyor. Ne var ki, OpenAI yeni denetimlerle bu riskleri azaltmayı hedefliyor. Şirket, yalnızca teknik çözümlere değil, aynı zamanda toplumsal etkileri de gözetmeye çalışıyor. Bu çerçevede güvenlik odaklı çalışmaların uzun vadeli bir gündem olduğu vurgulanıyor.

Bunun yanında OpenAI, farklı alanlardan uzmanlarla iş birliği yapmayı planlıyor. Yeme bozuklukları, madde kullanımı ve ergen sağlığı gibi hassas konularda uzmanların desteğiyle modellerin daha bilinçli hale getirileceği ifade ediliyor. Bu tür bir yaklaşım, gençlerin daha sağlıklı bilgi almasını sağlayabilir. Bununla birlikte, uzman görüşlerinin işin içine dahil edilmesi teknolojinin güvenilirliğini artırabilir. Tüm bunların yanında, bu iş birliği sürecinin uzun soluklu olacağı belirtiliyor.

Öte yandan şirket, yeni bir gerçek zamanlı yönlendirme sistemi üzerinde çalışıyor. Bu sistem, hassas içerikleri doğrudan akıl yürütme modellerine aktarıyor. Böylece seçilen model ne olursa olsun riskli konuşmalar güvenlik odaklı bir süzgeçten geçiriliyor. Şirket, bu yöntemle saldırgan yönlendirmelere daha dirençli bir yapı elde etmeyi amaçlıyor. Ek olarak, kullanıcıların güvenlik yönergeleriyle daha uyumlu bir deneyim yaşaması sağlanıyor.

Her şeye rağmen uzmanlar, ebeveyn kontrolü özelliğinin tek başına yeterli olmayacağını hatırlatıyor. Genç kullanıcıların psikolojik açıdan kırılgan dönemlerinde yapay zekâ ile kurdukları etkileşimlerin risk barındırabileceği dile getiriliyor. Bu nedenle, teknolojik çözümlerle birlikte toplumsal farkındalığın da güçlenmesi gerektiği vurgulanıyor. Bunun yanı sıra, ebeveynlerin çocuklarının dijital alışkanlıklarını yakından takip etmesinin kritik önem taşıdığına işaret ediliyor. Bu yaklaşım, teknoloji ile gençler arasında daha sağlıklı bir denge kurulmasına yardımcı olabilir.

OpenAI, önümüzdeki 120 gün içinde başka güvenlik özelliklerini de duyurmayı planlıyor. Şirket, yol haritasını paylaşarak kullanıcıların nelerle karşılaşacağını önceden görmesini sağladı. Bu süreçte mümkün olduğunca fazla geliştirmeyi devreye almak için çaba harcandığı ifade ediliyor. Yine de, çalışmaların yıl sonunun ötesine taşınacağı ve uzun vadede devam edeceği söyleniyor. Böylece kullanıcıların beklentilerinin sürekli olarak karşılanması hedefleniyor.

Tüm bu adımlar, yapay zekânın gençler için güvenli bir araç olmasına katkı sağlayabilir. Fakat bu gelişmeler, teknolojinin toplum üzerindeki etkilerinin daha fazla tartışılacağına işaret ediyor. Her ne kadar ebeveyn kontrolü önemli bir yenilik olsa da, yapay zekâ ile kurulan ilişkilerin sorumluluk bilinciyle yönetilmesi gerekiyor. Bunun yanı sıra, düzenli güncellemelerle güvenlik standartlarının korunması şart görünüyor. Bu bağlamda OpenAI’ın atacağı adımlar yakından izlenmeye devam edecek.