Teknoloji

Facebook’ta içeriği azaltan denetim değişti, şiddet ve taciz arttı

facebook meta

Meta, 2025 yılına girerken içerik denetimi politikalarında yaptığı değişikliklerin etkilerini paylaşmaya başladı. Mark Zuckerberg’in içerik moderasyonunu yeniden şekillendirme kararı sonrasında yayımlanan ilk çeyrek raporu, dikkat çekici istatistiklerle kamuoyunun karşısına çıktı. Raporda yer alan verilere göre, Facebook üzerinde şiddet, taciz ve zorbalık içeren içeriklerin oranı artarken, platformdan kaldırılan içerik sayısında gözle görülür bir azalma yaşandı.

Şirket, yeni yaklaşımı “daha az yanlış uygulama” olarak lanse ediyor ve hata oranlarındaki düşüşü öne çıkarıyor. Meta’ya göre, platformda yapılan denetim hatalarında yüzde 50’lik bir azalma sağlandı. Yine de, kuralları ihlal eden içeriklerin kullanıcılar tarafından görülme sıklığı birçok alanda değişmedi. Ne var ki, şiddet içeren ve taciz barındıran içeriklerdeki artış göz ardı edilemeyecek seviyeye ulaştı.

Facebook üzerinde zorbalık ve şiddetin görünürlüğü artarken içerik kaldırma azaldı

Meta’nın verilerine göre, 2024’ün sonunda %0,06 ile %0,07 aralığında olan şiddet ve grafik içerik oranı, 2025’in ilk çeyreğinde %0,09’a yükseldi. Benzer şekilde, zorbalık ve taciz içeriklerinin yaygınlığı da %0,07-%0,08 seviyesine çıktı. Bu artış, özellikle Mart ayında yaşanan ihlal dalgası ile açıklanıyor. Buna rağmen, şirketin genel denetim yaklaşımını daha gevşek hale getirmesi dikkat çekiyor.

İçerik kaldırma sayılarındaki azalma, Meta’nın yeni moderasyon yaklaşımının en görünür sonucu oldu. Nefret söylemi kapsamında işlem yapılan içerik sayısı 3,4 milyon olarak kayda geçti; bu, 2018’den beri görülen en düşük rakam. Aynı şekilde, spam içerik kaldırma işlemleri 730 milyondan 366 milyona geriledi. Sahte hesapların kaldırılmasında da 1,4 milyardan 1 milyara düşüş yaşandı.

Buna karşılık, şirket içerik denetimindeki hataların azaldığını sıkça vurguluyor. Ancak bu hataların nasıl hesaplandığına dair kamuoyuyla paylaşılmış net bir metrik bulunmuyor. Meta, ilerleyen dönemlerde bu konuda daha şeffaf olacağını ve detaylı veriler sunacağını belirtiyor. Bu da, kullanıcıların şirketin içeriği nasıl yönettiğini daha yakından takip edebilmesine olanak tanıyacak.

Zuckerberg’in politikalarında dikkat çeken bir diğer başlık ise, ABD’deki üçüncü taraf doğrulayıcılarla yapılan iş birliklerinin sona erdirilmesi oldu. Bunun yerine Meta, Facebook, Instagram ve Threads gibi platformlara kendi geliştirdiği “Topluluk Notları” özelliğini entegre etti. Bu özellik zamanla Reels içeriklerine ve yorumlara da uygulanmaya başladı. Şirket, bu yeni sistemin ne kadar etkili olduğu hakkında henüz somut bir veri sunmadı.

Tüm bunların yanında Meta, genç kullanıcılar söz konusu olduğunda daha farklı bir yol izlemeye devam ediyor. Şirket, gençler için belirli türdeki zararlı içerikleri gizlemeye yönelik proaktif yaklaşımları sürdürüyor. Özellikle zorbalık içeren paylaşımlar bu kapsama alınıyor. Son birkaç ayda geliştirilen “genç hesapları”, bu içeriklerin filtrelenmesini kolaylaştırmayı amaçlıyor.

İçerik denetiminde yapay zekâ teknolojileri de artık daha aktif kullanılıyor. Şirketin geliştirdiği büyük dil modelleri (LLM), bazı alanlarda insan moderatörlerin üzerinde performans göstermeye başladı. Yüksek güven düzeyine sahip durumlarda, bu modeller belirli içerikleri doğrudan denetim sırasından çıkarabiliyor. Bu da, Meta’nın içerik denetimini daha otomatik ve hızlı hale getirme çabasını gösteriyor.

Facebook gibi milyarlarca kullanıcısı olan bir platformda, küçük oran artışları bile milyonlarca kullanıcıyı etkileyebiliyor. Şirketin daha az içerik kaldırması, kullanıcıların kuralları ihlal eden içeriklerle daha fazla karşılaşması anlamına geliyor. Her ne kadar Meta, hata oranlarını azaltmakla övünse de, bu durumun kullanıcı deneyimi üzerindeki olumsuz etkileri tartışma yaratıyor. Özellikle şiddet ve taciz içeren içeriklerin daha görünür hale gelmesi, bu politikaların ne kadar sürdürülebilir olduğu sorusunu gündeme getiriyor.