Teknoloji

OpenAI, Çin’de ChatGPT ile sosyal medya gözetimi yapan hesapları kapattı

openai chatgpt agent

OpenAI, yapay zekâ teknolojisinin kötüye kullanımını engellemeye yönelik denetimlerini 2025’in son çeyreğinde genişletti. Şirket, Çin merkezli bir hesabın ChatGPT’yi sosyal medya gözetim aracı tasarlamak için kullandığını belirledi. Bu hesabın, bir devlet kurumuna hizmet verdiği iddia edildi. Araç, siyasi, etnik ve dini içerikleri tespit ederek analiz eden bir sistem üzerine kuruluydu. OpenAI, incelemenin ardından hesabın tüm erişimini kapattı.

Bu araç, X, Facebook, Instagram, Reddit, TikTok ve YouTube gibi platformlarda paylaşılan gönderileri tarayacak şekilde programlanmıştı. Bunun yanında, operatörün belirlediği temalara göre verileri kategorize eden özel bir algoritma barındırıyordu. Her ne kadar sistemin doğrudan Çin hükümetiyle bağlantılı olduğu doğrulanmasa da, OpenAI’ın bu adımı dikkat çekti. Şirket, bu tür projelerin küresel düzeydeki dijital güvenlik dengesini bozabileceğine işaret etti. Bu açıklama, yapay zekâ denetiminin artık sadece teknik değil, etik bir mesele hâline geldiğini gösteriyor.

OpenAI, etik dışı yapay zekâ girişimlerini daha sıkı biçimde izlemeye başladı

OpenAI’ın raporuna göre, engellenen hesaplar yalnızca sosyal medya takibi için değil, belirli toplulukları izlemeye yönelik sistemler tasarlamak amacıyla da ChatGPT’yi kullanıyordu. Özellikle “yüksek riskli Uygur odaklı uyarı modeli” adını taşıyan bir proje, şirket tarafından durduruldu. Bu model, “Uygur bağlantılı” kişilerin hareketlerini takip etmeyi amaçlayan bir izleme mekanizması içeriyordu. Buna rağmen, OpenAI kullanıcı verilerinin bu tür politik projelerde kullanılmasının kabul edilemez olduğunu vurguladı. Tüm bunların yanında, uluslararası insan hakları örgütleri de bu girişimlerin etik sınırları ihlal ettiğini belirtiyor.

OpenAI, Şubat 2024’ten itibaren yayımladığı tehdit raporlarıyla benzer vakaları kamuoyuyla paylaşıyor. Bu raporlar, devlet bağlantılı bazı grupların yapay zekâyı siber güvenlik saldırılarını güçlendirmek, oltalama yöntemlerini geliştirmek ve propaganda üretmek için nasıl kullandıklarını ortaya koyuyor. Bunun yanı sıra, şirketin hedefi sadece hesapları kapatmak değil, aynı zamanda farkındalık yaratmak. Her ne kadar yapay zekâ teknolojileri fayda odaklı geliştirilse de, bu örnekler denetimsiz kullanımın doğurabileceği riskleri gözler önüne seriyor. Bu sayede, teknoloji toplulukları etik çerçeve konusunda daha bilinçli hareket ediyor.

Geçtiğimiz çeyreğe ilişkin açıklanan veriler, yalnızca Çin’de değil, farklı bölgelerde de benzer girişimlerin sürdüğünü gösterdi. Rusça, Korece ve Çince konuşan bazı geliştiriciler, ChatGPT’yi kötü amaçlı yazılımları optimize etmek için kullanmaya çalıştı. Buna ek olarak, Kamboçya, Myanmar ve Nijerya’daki bazı ağların ChatGPT üzerinden dolandırıcılık planları oluşturduğu tespit edildi. OpenAI, bu hesapların da sistematik biçimde engellendiğini duyurdu. Tüm bu veriler, yapay zekânın hem üretim hem de güvenlik alanlarında denge gerektirdiğini açıkça ortaya koyuyor.

OpenAI’ın paylaştığı verilere göre, ChatGPT dolandırıcılık üretmekten çok, dolandırıcılığı tespit etmede üç kat daha fazla kullanılıyor. Bunun yanında, kullanıcıların büyük bölümü modeli denetim, veri analizi ve bilgi doğrulama gibi alanlarda tercih ediyor. Yine de, kötü niyetli kişiler bu teknolojiyi manipülasyon amacıyla kullanmanın yollarını aramaktan vazgeçmiyor. OpenAI, bu durumu önlemek için eğitimli denetim modellerini devreye alıyor. Bu süreç, yapay zekânın hem güvenli hem de sorumlu biçimde kullanılabilmesi için önemli bir adım olarak değerlendiriliyor.

Son dönemde, yapay zekâ tabanlı içeriklerin sosyal medya platformlarında kamuoyu yönlendirme aracı olarak kullanılma eğilimi arttı. İran, Rusya ve Çin’deki bazı gruplar, ChatGPT yardımıyla sahte hesaplar üzerinden gönderiler paylaşarak toplumsal kutuplaşmayı derinleştirmeye çalıştı. Bu kampanyalarda, hem yerel hem de uluslararası platformlarda üretilmiş manipülatif içerikler dolaşıma sokuldu. OpenAI, bu faaliyetleri saptayarak etkileşim ağlarını kapattı. Şirketin açıklamasına göre, bu tür müdahaleler bilgi güvenliği kadar toplumsal denge açısından da büyük önem taşıyor.

OpenAI’ın raporları, dijital çağda yapay zekâ teknolojisinin kontrolsüz büyümesinin ne kadar riskli olabileceğini gösteriyor. Bununla birlikte, şirket yalnızca kötüye kullanımla mücadele etmiyor; aynı zamanda etik kullanım standartlarının oluşturulmasına da katkı sunuyor. Bu yaklaşımla, gelecekteki yapay zekâ uygulamalarının daha şeffaf ve denetlenebilir olması hedefleniyor. Tüm bunların yanında, OpenAI’ın kararlılığı, diğer teknoloji şirketleri için de örnek teşkil ediyor.

Her şeye rağmen, yapay zekânın sorumlu kullanımı konusunda alınan önlemler tek başına yeterli görülmüyor. Uzmanlar, uluslararası düzeyde iş birliğinin zorunlu hale geldiğini vurguluyor. OpenAI’ın bu alandaki istikrarlı tutumu, hem etik hem de güvenlik perspektifinden küresel ölçekte yeni bir farkındalık yaratıyor. Bu nedenle, geleceğin dijital politikalarında yapay zekâ denetimi artık kaçınılmaz bir gereklilik olarak değerlendiriliyor.

OpenAI’ın attığı bu adımlar, teknolojinin insan merkezli ve güvenli biçimde ilerlemesi için önemli bir örnek oluşturuyor. Şirketin önümüzdeki dönemde yayımlayacağı yeni raporların, yapay zekânın toplumsal etkilerine dair daha kapsamlı bir perspektif sunması bekleniyor. Her ne kadar teknolojik gelişim hızla sürse de, etik değerlerin bu ilerlemenin temel dayanağı olarak korunması gerektiği vurgulanıyor.