Eğlence

Roblox’ta yeni dönem: Yapay zekâ zararlı içerikleri anında durduruyor

roblox

Roblox, kullanıcı tarafından oluşturulan içeriklerin yoğunluğu nedeniyle uzun süredir denetim zorluklarıyla karşı karşıya kalan platformlar arasında yer alıyor. Bu doğrultuda şirket, içerik moderasyonunu daha etkili hale getirmek amacıyla gerçek zamanlı çalışan yeni bir yapay zekâ sistemini kullanıma sundu. Söz konusu sistem, yalnızca tekil içerik parçalarını incelemekle sınırlı kalmayıp, oyun içindeki tüm sahneleri eş zamanlı olarak analiz edebiliyor. Bu yaklaşım, özellikle bağlamdan bağımsız şekilde değerlendirildiğinde sorun teşkil etmeyen ancak bir araya geldiğinde zararlı içerik oluşturan unsurların tespit edilmesini kolaylaştırıyor. Buna rağmen, sistemin tamamen hatasız çalışıp çalışmadığı konusu hâlâ yakından izleniyor.

Yeni moderasyon altyapısı, metin, avatar ve üç boyutlu nesneleri birlikte değerlendirerek daha kapsamlı bir denetim süreci sunuyor. Örneğin, kullanıcıların serbest çizim araçlarıyla oluşturduğu ve tek başına filtreleri aşabilecek semboller, bu sistem sayesinde sahne bütünlüğü içinde analiz edilerek tespit edilebiliyor. Her ne kadar önceki araçlar belirli içerik türlerinde etkili olsa da, bağlamsal analiz eksikliği önemli bir boşluk yaratıyordu. Bununla birlikte, yeni sistemin bu eksikliği gidermeye yönelik geliştirildiği görülüyor.

Yeni Roblox moderasyon sistemi nasıl çalışıyor?

Roblox tarafından paylaşılan bilgilere göre, sistem ihlallerin yoğunlaştığı durumlarda yalnızca ilgili oyun sunucusunu kapatma yoluna gidiyor. Bu sayede tüm oyunun etkilenmesinin önüne geçiliyor ve diğer kullanıcıların deneyimi korunuyor. Yayına alındığı ilk dönemde her gün yaklaşık 5 bin sunucunun bu şekilde devre dışı bırakıldığı ifade ediliyor. Buna ek olarak, platformun hedefi uzun vadede tüm oyun sürelerinin yüzde 100’ünü bu sistem üzerinden denetlemek.

Öte yandan, yalnızca sunucu kapatma ile sınırlı kalmayan bu yaklaşım, bireysel olarak sorun yaratan kullanıcıların tespit edilmesine de odaklanıyor. Böylece kötü niyetli davranışların doğrudan kaynağına müdahale edilmesi mümkün hale geliyor. Bu durum, özellikle geniş oyuncu topluluklarına sahip platformlarda genel kullanıcı deneyimini koruma açısından dikkat çekici bir adım olarak değerlendiriliyor. Buna rağmen, kullanıcı gizliliği ve yanlış tespit riskleri gibi konular tartışılmaya devam ediyor.

Roblox, içerik üreticilerini de sürecin dışında bırakmıyor. Geliştirici paneline eklenen yeni grafik aracı sayesinde, belirli bir gün içerisinde kaç oyun sunucusunun kötü kullanıcı davranışları nedeniyle kapatıldığı görüntülenebiliyor. Bu verilerde yaşanan ani artışlar, geliştiricilere oyun içi araçlarını gözden geçirme fırsatı sunuyor. Bunun yanında, özel emote’lar veya yapı araçları gibi kullanıcı etkileşimini artıran unsurların yeniden düzenlenmesi mümkün hale geliyor.

Tüm bunlara ek olarak Roblox, sektör genelinde moderasyon standartlarını geliştirmeye yönelik girişimlerde de yer alıyor. Keyword Studios ve Riot Games ile birlikte yürütülen DLC Leadership Program kapsamında, çevrimiçi topluluk yöneticileri için bilimsel temelli eğitim modelleri geliştiriliyor. Araştırma psikoloğu Rachel Kowert’in akademik liderliğinde ilerleyen bu çalışma, oyun topluluklarının daha sağlıklı yönetilmesini hedefliyor.

Platform, daha önce ebeveyn kontrolleri ve yaşa dayalı sohbet filtreleri gibi önlemleri devreye almıştı. Buna rağmen, kullanıcı tabanının büyüklüğü ve içerik çeşitliliği göz önüne alındığında, yeni yapay zekâ moderasyon sisteminin kapsamı önceki çözümlere kıyasla daha geniş bir denetim imkânı sunuyor. Bununla birlikte, sistemin uzun vadeli etkileri ve kullanıcı deneyimine yansımaları önümüzdeki süreçte daha net biçimde ortaya çıkacak.

📡 Teknoblog'u takip et Teknoloji gündemini kaçırmamak için 📰 Google Haberler'e ekle, 💬 WhatsApp kanalımıza katıl, ▶ YouTube'a abone ol, 📷 Instagram'da ve 𝕏 X'te bizi takip et.