Ünlü oyuncu Bryan Cranston’ın OpenAI tarafından geliştirilen Sora 2 platformunda yer alan bir yapay zekâ videosunda izni olmadan görünmesi, hem sektörde hem de kamuoyunda geniş yankı buldu. Özellikle Cranston’ın, Michael Jackson ile birlikte selfie çekerken tasvir edildiği sahte video, tartışmaları alevlendirdi. Bu video sonrasında, oyuncunun dijital kimliğinin izinsiz şekilde taklit edilmesi yapay zekâ araçlarının etik sınırlarını tekrar gündeme taşıdı. Yaşanan gelişmelerle birlikte, Cranston’ın temsilcileri ve oyuncu sendikası SAG-AFTRA duruma müdahale etti.
Bu olay, sadece Cranston’ın şahsını ilgilendirmiyor; tüm yaratıcı sektör için kaygı verici bir örnek teşkil ediyor. Yapay zekâ ile üretilmiş bu tip videolar, bireylerin benzerliğinin ne kadar kolay çoğaltılabileceğini gösteriyor. Buna rağmen, bu teknolojilerin kontrolsüz kullanımı, dijital haklar açısından ciddi boşluklar yaratıyor. Her ne kadar bazı platformlar içerik üretiminde etik kurallara uyduklarını öne sürse de, pratikte durum her zaman böyle gelişmiyor. Bu noktada, sektördeki temsilcilerin ve birliklerin daha güçlü yaptırımlar talep etmeye başlaması dikkat çekiyor. Çünkü kişilik haklarının ihlali artık teknik bir sorun değil, hukuki bir zorunluluk hâline geliyor.
OpenAI tepkilerin ardından harekete geçti
Tepkilerin büyümesiyle birlikte OpenAI, benzerlik ve ses kullanımına dair bazı düzenlemeleri yürürlüğe sokacağını açıkladı. Şirket, Cranston’ın yer aldığı görüntülerin kasıtlı olmadığını belirtti fakat kamuoyuna yansıyan bu videoların etkisi geniş çaplı oldu. Buna ek olarak, bireylerin dijital benzerliklerinin simüle edilmesine dair onay sürecinde sıkılaştırmaya gidileceği belirtildi. Artık sanatçılar, ses ve yüz gibi kişisel özelliklerinin kullanılmasına açıkça izin vermedikçe bu tür içeriklerde yer almayacak. Bu sistem, hem üretici tarafı hem de tüketici tarafı açısından daha şeffaf bir yaklaşım getiriyor. Yine de uygulanabilirliği konusunda halen soru işaretleri mevcut.
OpenAI’ın açıklamalarında, gelecekte yapılacak her içerik üretiminde kişisel verilerin güvence altına alınacağı öne sürüldü. Fakat bu açıklamalar, yasal bir bağlayıcılığa sahip değil. Bu noktada, kullanıcıların kendi haklarını koruyabilmesi için daha net çerçevelere ihtiyaç duyuluyor. SAG-AFTRA Başkanı Sean Astin, bu boşluğa dikkat çekerek, NO FAKES adlı yasa tasarısını gündeme getirdi. Söz konusu yasa, kişilerin dijital olarak çoğaltılmasını ancak açık rıza ile mümkün kılacak bir altyapı sunmayı hedefliyor. Böylece sadece platform politikaları değil, aynı zamanda yasal düzenlemeler de devreye girmiş olacak.
Cranston, yaşananlardan dolayı OpenAI’a teşekkür ettiğini belirtse de, sistemin hâlâ açıklarını kapatamadığını vurguladı. Bu tür bir yapay zekâ üretiminin, kişilik haklarını zedelemeden nasıl sınırlandırılabileceği sorusu ise yanıt bekliyor. Tüm bunların yanında, bu gelişmeler içerik üretiminde yeni sorumluluk alanlarının tanımlanmasını da gerekli kılıyor. Zira dijital dünyada üretim kolaylaştıkça, kontrolün daha da zorlaştığı görülüyor. Platformların iyi niyetli açıklamalarla değil, uygulanabilir politikalarla hareket etmesi gerekiyor. Aksi hâlde, bu gibi durumlar tekrar gündeme gelebilir.
Gelişmelere destek veren ajanslar arasında Creative Artists Agency ve United Talent Agency gibi güçlü yapılar da yer aldı. Bu kurumlar daha önce benzer sorunlar nedeniyle OpenAI’ı eleştirmiş, yapay zekânın sanatçılar üzerinde yaratabileceği hak ihlallerine dikkat çekmişti. Her şeye rağmen, bu kurumların konuya yaklaşımı sürecin daha dikkatli yürütülmesini sağladı. Çünkü yalnızca teknolojinin kendisi değil, bu teknolojinin kimin elinde olduğu da büyük önem taşıyor. Ajansların bu konudaki ortak açıklamaları, sektördeki diğer oyuncuların da desteğini almış durumda. Bu dayanışma, bireysel mücadelenin kolektif bir çabaya dönüşmesini kolaylaştırıyor.
Sora 2’nin geçmişte de tartışmalı videolar ürettiği biliniyor. Nazi üniformalı SpongeBob örneği, toplumsal hassasiyetleri hiçe sayan bir başka içerik olarak kayıtlara geçmişti. Bu olaylar, Sora 2’nin içerik filtreleme algoritmalarında ciddi eksikler olduğunu ortaya koydu. OpenAI, gelen yoğun tepkiler sonrası içerik üreticilerine daha fazla kontrol sunulacağını bildirmişti. Bunun yanında, telif hakkı sahiplerinin artık yalnızca itiraz etme değil, önceden izin verme hakkına sahip olacağı belirtilmişti. Bu gelişme, içerik üretiminde daha sorumlu bir dönemin habercisi olabilir.