ABD’deki eyalet ve bölge başsavcılarından oluşan geniş bir grup, aralarında Microsoft, Google ve OpenAI gibi teknoloji devlerinin de bulunduğu 14 yapay zekâ şirketine resmi bir uyarı mektubu gönderdi. Ulusal Başsavcılar Birliği (National Association of Attorneys General) imzasını taşıyan mektupta, yapay zekâ sistemlerinin özellikle ruh sağlığı açısından riskli olabilecek “sanrılı” ve “yağcılık içeren” çıktılar üretmesinin kabul edilemez olduğu belirtiliyor. Şirketlerin bu tarz çıktıları önlemek için daha güçlü iç denetim ve şeffaflık önlemleri uygulamaya koymaları isteniyor.
Mektupta son dönemde kamuoyuna yansıyan bazı trajik olaylara dikkat çekiliyor. Yapay zekâ sohbet robotlarının, kullanıcıların sanrılarını pekiştiren ya da destekleyen yanıtlar verdiği ve bunun intihar gibi ciddi sonuçlara neden olduğu vurgulanıyor. Bu olaylar, yapay zekâ araçlarının henüz yeterince güvenli olmadığını gösterirken, başsavcılar bu durumun özellikle savunmasız bireyler açısından ciddi tehlikeler barındırdığını ifade ediyor.
Yapay zekâ şirketlerine “şeffaf denetim” çağrısı yapıldı
Başsavcıların talep ettiği önlemler arasında, büyük dil modellerinin bağımsız kuruluşlar tarafından önceden denetlenmesi, kullanıcıları etkileyebilecek olumsuz çıktılarla ilgili şeffaf bildirim mekanizmaları kurulması ve ruh sağlığına zarar verebilecek içeriklerin tespiti için iç prosedürlerin açıkça tanımlanması yer alıyor. Denetimlerin sadece şirket içinden değil, akademik kurumlar ve sivil toplum kuruluşları gibi bağımsız kaynaklarca yapılması gerektiği, bu kuruluşların da sansürlenmeden bulgularını yayımlayabilmesi gerektiği vurgulanıyor.
Bunun yanında, şirketlerin siber güvenlik olaylarında olduğu gibi, yapay zekâ ürünleriyle ilgili ruh sağlığı riskleri doğuran içerikleri de aynı ciddiyetle ele almaları isteniyor. Başsavcılar, sanrılı çıktılara dair bir “tespit ve müdahale takvimi” belirlenmesini ve kullanıcıların olası riskli içeriklerle karşılaştığında zamanında ve açık şekilde bilgilendirilmesini zorunlu buluyor.
Bu kapsamda şirketlerin, kamuya sunulmadan önce modelleri üzerinde “uygun ve makul güvenlik testleri” gerçekleştirmeleri de talep ediliyor. Bu testlerin temel amacı, yapay zekâ sistemlerinin kullanıcıların psikolojisine zarar verebilecek içerikler üretmediğinden emin olmak.
Mektubun zamanlaması da dikkat çekici. Son dönemde, yapay zekânın düzenlenmesi konusunda federal yönetim ile eyalet yönetimleri arasında ciddi görüş ayrılıkları yaşanıyor. Donald Trump yönetimi, yapay zekâ konusunda açıkça destekleyici bir tutum benimsemiş durumda. Trump, geçtiğimiz günlerde yaptığı açıklamada, eyaletlerin bu alandaki düzenleme yetkilerini sınırlandıracak yeni bir başkanlık kararnamesi yayımlayacağını duyurdu.
Trump, kendi sosyal medya platformu Truth Social üzerinden yaptığı paylaşımda, yapay zekânın “daha doğmadan yok edilmesini” engellemeyi hedeflediğini belirtti. Ancak federal düzeyde yapay zekâyı eyalet düzenlemelerinden korumaya yönelik önceki girişimler başarısız olmuştu. Bu başarısızlıkta, eyalet düzeyindeki yoğun baskıların etkili olduğu değerlendiriliyor.
Buna karşılık, teknoloji şirketlerinin federal düzeydeki düzenlemelere daha sıcak baktığı, eyaletlerin ise kullanıcı güvenliğini doğrudan ilgilendiren konularda daha sıkı kurallar talep ettiği görülüyor. Bu durum, önümüzdeki dönemde yapay zekânın yasal çerçevesinin nasıl şekilleneceği konusunda önemli bir belirleyici olacak gibi duruyor.
Google, Microsoft ve OpenAI gibi şirketler ise mektuba ilişkin herhangi bir açıklama yapmadı.








