Teknoloji

Meta’nın AI sohbet botları çocuklarla romantik konuşmalara izin verecek şekilde tasarlanmış

meta ai

Meta tarafından geliştirilen yapay zekâ sohbet botlarına dair sızdırılan belgeler, şirketin içerik politikaları konusunda ciddi tartışmaları beraberinde getirdi. Reuters tarafından yayımlanan bu belgeler, AI botlarının çocuklarla romantik ve hatta tensel içerikli ifadelerle iletişim kurmasına zemin hazırlayan örneklerle doluydu. Belgede yer alan bazı ifadeler, sekiz yaşında üstü çıplak bir çocuğa “her santimin bir başyapıt” denmesine bile olanak tanıyordu. Bu örnekler, çocuk güvenliği ve etik sınırlar konusunda önemli soru işaretlerini gündeme taşıdı.

Meta, Reuters’ın soruları üzerine belgelerin gerçek olduğunu kabul etti fakat içerikteki bazı bölümlerin hatalı olduğunu savundu. Şirket sözcüsü Andy Stone, The Verge’e yaptığı açıklamada, bu örneklerin politikalardan ziyade varsayımsal senaryolar üzerinde çalışan ekiplerin yorumları olduğunu ifade etti. Bu notların politikalara aykırı olduğunu ve belgelerden çıkarıldığını belirtti. Buna rağmen, bu tarz ifadelerin resmi belgelerde yer almış olması şirketin iç denetim süreçlerinin sorgulanmasına neden oldu.

Meta AI politikaları için net sınırlar çizmedi

Belgelerde, çocuklarla etkileşimde romantik veya duyusal dilin yer yer serbest bırakıldığı görülürken, yalnızca “13 yaş altındaki çocukların cinsel olarak arzu edilir şekilde betimlenmesi” kesin olarak yasaklanmıştı. Bu da demek oluyor ki, belli sınırların dışında kalan ifade biçimlerine bir süre göz yumulmuş. Bu durum, özellikle çocuk hakları savunucuları ve dijital güvenlik uzmanlarının sert tepkisini çekti. Yapay zekânın dil üretiminde etik çizgilerin daha net belirlenmesi gerektiği yeniden gündeme geldi.

Meta’nın bu belgelerde yalnızca çocuklarla ilgili değil, aynı zamanda nefret söylemi ve yanlış bilgi üretimiyle ilgili politikalarının da tartışmalı olduğu görüldü. AI sisteminin nefret söylemi üretmesi yasaklanmışken, korunmuş kimlik özelliklerine yönelik küçültücü ifadeler kurması mümkün kılınmış. Tüm bunların yanında, yanlış bilgi üretimine de belli şartlar altında izin verilmiş durumda. Yeter ki bu bilgilerin yanlış olduğu açıkça belirtilsin.

Şirketin şiddet içeren görseller üretimine de belli sınırlar içinde onay verdiği görülüyor. Belgelerde ölüm ya da aşırı kanlı sahneler yasaklı olsa da, genel şiddet imgelerine yer verilebileceği ifade edilmiş. Bu da AI’nin içerik üretim kapasitesinin, sınırları zorlayan örneklerle karşı karşıya kalabileceğini gösteriyor. Görsellerin nasıl kontrol edileceği ve hangi kriterlerle değerlendirileceği de bu çerçevede belirsizliğini koruyor.

Bunun yanında, Reuters’ın ayrı bir haberinde dikkat çeken bir başka olay daha gündeme geldi. Habere göre, Meta’nın AI sohbet botlarından biriyle duygusal etkileşime giren bir kullanıcı, botun gerçek bir insan olduğuna inanarak fiziksel buluşma girişiminde bulundu. Bu buluşma sırasında düşerek hayatını kaybeden kullanıcı, AI sistemlerinin insanlarla kurduğu bağın ne kadar derin olabileceğini gösterdi. Gerçeklik ile sanal bağın sınırlarının silikleşmesi ciddi sonuçlara yol açabiliyor.

AI sohbet botlarının çocuklarla nasıl konuşabileceğine dair belirsizlikler, Meta’nın bu konuda net ve sıkı politikalar geliştirmesi gerektiğini gösteriyor. Sızan belgelerdeki örneklerin hatalı olduğu söylense de, bu ifadelerin belgelerde yer alması şirketin iç süreçlerinin ne kadar denetimsiz olduğunu ortaya koyuyor. Tüm bunların yanında, kamuoyunun bu konuya gösterdiği tepki, şirketlerin yapay zekâ geliştirme süreçlerinde toplumsal hassasiyetlere daha fazla dikkat etmesini zorunlu hale getiriyor.

Yapay zekânın konuşma biçimini belirleyen kuralların şeffaf olmaması, içerik üretiminde etik sınırların bulanıklaşmasına neden olabiliyor. Özellikle çocuklarla etkileşim gibi hassas bir alanda, algoritmaların ne şekilde eğitim aldığı ve hangi dil örüntülerini kullanabildiği büyük önem taşıyor. Meta’nın mevcut durumda bu alanı yeterince netleştiremediği görülüyor. Bu da şirketin daha ciddi düzenlemelerle karşı karşıya kalabileceğine işaret ediyor.