Google ve yapay zekâ girişimi Character.AI, sohbet botlarıyla etkileşim sonrasında genç kullanıcıların kendilerine zarar verdiği veya hayatını kaybettiği davalarda uzlaşma görüşmeleri yürütüyor. Teknoloji sektöründe yapay zekâ kaynaklı zarar iddialarına ilişkin ilk kapsamlı hukuki anlaşmalardan biri olabilecek bu süreç, hem sektörde hem de düzenleyici kurumlar nezdinde yakından izleniyor.
Taraflar prensipte uzlaşmaya varmış durumda, fakat anlaşmanın ayrıntılarının netleştirilmesi için görüşmeler devam ediyor. Bu dosyalar, yapay zekâ sistemlerinin kullanıcı güvenliği üzerindeki etkilerine dair hukuki sınırların henüz tam olarak çizilmediği bir dönemde dikkat çekiyor.
Character.AI ve Google bağlantısı 2024’te daha net hâle gelmişti
Character.AI, 2021 yılında eski Google mühendisleri tarafından kuruldu ve kullanıcıların farklı kişiliklere sahip yapay zekâ karakterleriyle sohbet etmesine olanak tanıyan bir platform olarak biliniyor. Şirketin kurucularının 2024 yılında Google’a yaklaşık 2,7 milyar dolarlık bir anlaşmayla geri dönmesi, iki şirket arasındaki bağları daha da görünür hale getirdi. Bu bağlamda açılan davalar, yalnızca bir girişimi değil, büyük teknoloji şirketlerini de dolaylı olarak ilgilendiren sonuçlar doğurabilecek nitelikte değerlendiriliyor.
Davalara konu olan olaylardan biri, 14 yaşındaki Sewell Setzer III’ün yaşadıklarıyla öne çıkıyor. Setzer’in, platformda yer alan “Daenerys Targaryen” adlı bir sohbet botuyla uzun süre cinsel içerikli konuşmalar yaptığı ve ardından yaşamına son verdiği iddia ediliyor. Annesi Megan Garcia, ABD Senatosu’nda yaptığı konuşmada, şirketlerin zararlı olduğu bilinen yapay zekâ sistemlerini tasarladıkları durumlarda hukuki sorumluluk taşımaları gerektiğini vurguladı. Bu açıklamalar, ailelerin yalnızca tazminat değil, aynı zamanda daha sıkı düzenlemeler talep ettiğini de ortaya koyuyor.
Bir diğer davada ise 17 yaşındaki bir gencin, sohbet botu tarafından kendine zarar vermeye teşvik edildiği ve ebeveynlerinin ekran süresini sınırlamasını gerekçe göstererek şiddet içeren düşüncelerin normalleştirildiği öne sürülüyor. Bu iddialar, yapay zekâ destekli sohbet sistemlerinin özellikle ergenlik çağındaki kullanıcılar üzerindeki psikolojik etkilerinin yeterince denetlenip denetlenmediği sorusunu gündeme getiriyor. Character.AI, ekim ayında reşit olmayan kullanıcıları platformdan yasakladığını açıklamıştı, fakat davalar bu kararın öncesindeki uygulamalara odaklanıyor.
Mahkemeye sunulan belgelere göre, taraflar uzlaşma kapsamında maddi tazminat üzerinde duruyor, ne var ki şu ana kadar herhangi bir hukuki sorumluluğun kabul edildiğine dair resmi bir beyan bulunmuyor. Bu durum, şirketlerin olası emsal kararların önüne geçme isteğiyle hareket ettiğine dair yorumlara yol açıyor. Öte yandan, OpenAI ve Meta gibi benzer teknolojiler geliştiren şirketlerin de benzer davalarla karşı karşıya olması, bu uzlaşmaların sektörde daha geniş etkiler yaratabileceğini gösteriyor.








