Teknoloji

Kanada’dan OpenAI’a güvenlik baskısı: ChatGPT için yeni kurallar

gpt-5 apple chatgpt derin araştırma

Kanada hükümeti, yapay zekâ sistemlerinin kötüye kullanımına ilişkin endişelerin artması üzerine OpenAI ile güvenlik önlemlerini güçlendirmeye yönelik yeni bir süreç başlattı. Wall Street Journal’ın aktardığı bilgilere göre, OpenAI CEO’su Sam Altman ile yapılan görüşmelerde ChatGPT’nin potansiyel riskli kullanımını daha hızlı tespit edecek ve gerekli durumlarda yetkilileri bilgilendirecek yeni uygulamalar ele alındı. Bu gelişme, Kanada’da bir lisede meydana gelen silahlı saldırı olayının ardından gündeme geldi. Söz konusu olayda OpenAI, saldırı şüphelisinin hesabını daha önce işaretleyerek askıya aldı. Buna rağmen yetkililere herhangi bir bildirim yapılmadığı ortaya çıktı ve bu durum güvenlik protokollerinin yeterliliğine dair tartışmaları beraberinde getirdi.

Kanada’nın Yapay Zekâ Bakanı Evan Solomon, Sam Altman ile çevrim içi bir toplantı gerçekleştirdiğini ve bu görüşmede platform güvenliğinin artırılması konusunda çeşitli talepler ilettiğini açıkladı. Solomon’un ifadelerine göre, Altman bu talepler doğrultusunda belirli adımlar atmayı kabul etti. Buna göre, ChatGPT üzerinde şüpheli veya riskli kullanım örneklerinin tespit edilmesi halinde kolluk kuvvetlerinin bilgilendirilmesine yönelik yeni bir çerçeve oluşturulması planlanıyor. Bunun yanında Kanada’daki gizlilik, ruh sağlığı ve güvenlik alanlarında uzman kişilerin de bu değerlendirme süreçlerine dahil edilmesi hedefleniyor. Böylece hem kullanıcı haklarını koruyan hem de potansiyel tehditleri erken aşamada belirleyebilen bir denetim mekanizması oluşturulması amaçlanıyor.

Kanada, ChatGPT kullanımında şüpheli faaliyetlerin bildirilmesini istiyor

Kanada hükümetinin gündeme getirdiği öneriler arasında yalnızca yeni olayların değil, geçmişte tespit edilen şüpheli kullanım örneklerinin de yeniden incelenmesi yer alıyor. Evan Solomon, OpenAI’dan bu vakaların geriye dönük olarak değerlendirilmesini ve gerekli görülen durumlarda kolluk kuvvetleriyle veri paylaşılmasını talep ettiğini belirtti. Ne var ki, OpenAI’ın bu geriye dönük inceleme önerisini tamamen kabul edip etmediği henüz netlik kazanmış değil. Buna rağmen şirketin yeni güvenlik protokollerini detaylandıran kapsamlı bir rapor hazırlayarak Kanada hükümetine sunmayı planladığı ifade ediliyor. Bu raporun platformun riskli davranışları nasıl tespit ettiği ve bu durumlarda hangi prosedürlerin uygulanacağını açıklaması bekleniyor.

Öte yandan OpenAI’ın Kanada ile güvenlik ve düzenleme konularında temas kurduğu ilk süreç bu değil. Şirketin küresel politika başkan yardımcısı Ann O’Leary, yakın dönemde yapılan açıklamalarda tespit sistemlerinin geliştirileceğini dile getirmişti. Buna göre yasaklanan kullanıcıların platforma farklı hesaplarla geri dönmesini engelleyecek yeni teknik önlemler üzerinde çalışılıyor. Her ne kadar mevcut sistemler bazı riskli davranışları belirleyebiliyor olsa da, kullanıcıların yeni hesaplar açarak platforma yeniden erişebilmesi güvenlik açısından önemli bir açık olarak görülüyor.

Bahsi geçen lise saldırısında da benzer bir durum yaşandı. OpenAI, saldırganın ilk hesabını “gerçek dünyada şiddet eylemi gerçekleştirme ihtimaline yönelik uyarılar” nedeniyle yasakladı. Buna rağmen şüphelinin farklı bir hesap oluşturarak platformu yeniden kullanabildiği ortaya çıktı. Bu durum, özellikle büyük ölçekli yapay zekâ platformlarının kullanıcı doğrulama, hesap takibi ve risk analizi konularında daha gelişmiş mekanizmalara ihtiyaç duyduğunu gösteriyor.

📡 Teknoblog'u takip et Teknoloji gündemini kaçırmamak için 📰 Google Haberler'e ekle, 💬 WhatsApp kanalımıza katıl, ▶ YouTube'a abone ol, 📷 Instagram'da ve 𝕏 X'te bizi takip et.