Meta, platformlarındaki ürün güncellemeleri ve yeni özelliklerin güvenliğini artık büyük ölçüde yapay zekâya emanet etmeye hazırlanıyor. Şirketin iç yazışmalarına dayanan bilgilere göre, ürün risk değerlendirmelerinde insan kararları yerini makinelere bırakacak. Meta’nın hedefi, bu değerlendirme süreçlerinin en az yüzde 90’ını yapay sistemlerle yürütmek. Bu oran, daha önce büyük ölçüde insan uzmanlarla gerçekleştirilen bir alan için oldukça dikkat çekici.
Yeni sistemde, ürün geliştirme ekiplerinin öncelikle bir anket formu doldurması gerekiyor. Geliştirilen özelliğin doğası, potansiyel etkileri ve kullanıcı davranışlarına etkisi gibi başlıklar bu formda yer alıyor. Yapay zekâ bu verileri işleyerek anında bir karar sunuyor ve riskli alanları otomatik şekilde belirtiyor. Ürün ekipleri de bu geri bildirimlere göre düzenlemeleri tamamladıktan sonra güncellemeyi kullanıma alabiliyor.
Meta, genç kullanıcıların güvenliğinde de yapay zekâyı öne çıkarıyor
Meta’nın bu yeni değerlendirme sisteminin kapsamı yalnızca teknik risklerle sınırlı değil. Genç kullanıcıların güvenliği, şiddet içeriği ve yanlış bilgi yayılımı gibi sosyal etkileri olan konular da yapay zekâya emanet ediliyor. Şirketin, “bütünlük” olarak tanımladığı bu kritik alanlarda da algoritmaların karar vermesi planlanıyor. Fakat bu tercih, içerik güvenliğini insan sezgisinden uzaklaştırma anlamına geliyor.
Meta içinden ve dışından bazı uzmanlar, bu yaklaşımın ciddi sakıncalar taşıyabileceğini vurguluyor. Eski bir Meta yöneticisi, denetimin azaltılmasının daha fazla dışsal olumsuzluk yaratacağını savunuyor. İnsanların daha önce önleyebildiği zararların, bu sistemle gözden kaçabileceği ifade ediliyor. Özellikle toplumsal etkileri yüksek olan güncellemelerde bu risk daha da artıyor.
Platformda yapılan her değişikliğin toplumsal etkisi düşünüldüğünde, algoritmaların yetersiz kaldığı örnekler geçmişte de görülmüştü. Otomatik karar sistemleri, bazı içerikleri yanlışlıkla silerken bazılarını ise gözden kaçırabiliyor. Şiddet içeren ya da tacize varan içeriklerin denetiminde yapay zekânın sınırlı kaldığına dair çok sayıda geri bildirim bulunuyor. Tüm bunların yanında, yapay zekâ etik değerlendirmelerde insan kadar esnek davranamıyor.
Meta’nın geçtiğimiz günlerde paylaştığı üç aylık bütünlük raporu da dikkat çekici veriler sunuyor. Yeni içerik politikaları sonrası platformdan kaldırılan içerik sayısı belirgin şekilde düşmüş durumda. Ne var ki, zorbalık, tehdit ve grafik içeriklerde küçük çaplı da olsa bir artış göze çarpıyor. Bu tablo, yapay zekâ merkezli sistemin güvenlik konusunda sınırlı etkili olduğunu gösteriyor olabilir.
Meta cephesi ise bu geçişin tamamen otomatikleştirme anlamına gelmediğini belirtiyor. Şirket sözcülerine göre, yeni ve karmaşık vakalarda hâlâ insan uzmanlar devreye girecek. Düşük riskli kararlar ise algoritmaların kontrolüne bırakılacak. Buna rağmen, bu ayrımın sınırlarının nasıl çizileceği net değil.
Yapılan bu değişiklik, teknoloji sektörü genelinde yükselen otomasyon eğiliminin bir yansıması. Şirketler hem hız hem de ölçeklenebilirlik adına karar süreçlerini dijitalleştirmeye yöneliyor. Fakat bu tür kararlar, kullanıcı güvenliğini etkileyen alanlarda alındığında dengeyi sağlamak kolay değil. Kullanıcılardan gelen tepkiler ve gelecekte yaşanabilecek sorunlar bu sistemin işleyişine yön verecek.