OpenAI’ın profesyonel kullanımı hedefleyen GPT-5.2 modeli, yetenekleri kadar bilgiye nasıl ulaştığıyla da gündeme girdi. Aralık ayında kullanıma açılan model, belirli ve hassas konu başlıklarında Grokipedia referanslarıyla yanıt üretti. Bu tercih, bilgi doğruluğu ve kaynak seçimi konularını yeniden tartışmaya açtı. Öte yandan tartışma, modelin genel performansından çok, belirli başlıklardaki kaynak davranışına odaklanıyor.
İncelemeler, ChatGPT arayüzü üzerinden yapılan sorgularda ortaya çıkan referansları temel aldı. Özellikle İran’la bağlantılı iddialar ve tarihsel tartışmalar söz konusu olduğunda, modelin Grokipedia içeriklerine yöneldiği görüldü. Buna rağmen benzer derecede tartışmalı bazı siyasi sorularda aynı kaynağın kullanılmaması, kaynak seçiminde belirli eşiklerin devrede olabileceğini düşündürdü. Her ne olursa olsun, bu ayrım net bir çerçeve sunmuyor.
Guardian’ın yaptığı testler, OpenAI cephesinde uzun süredir vurgulanan “geniş kaynak havuzu” yaklaşımını yeniden gündeme taşıdı. Testlerde, İran devleti ile MTN-Irancell arasındaki ilişkilere dair yanıtların Grokipedia referanslı biçimde sunulduğu görüldü. Bunun yanında, Holokost inkârcısı David Irving’in iftira davasında bilirkişi olarak yer alan tarihçi Richard Evans hakkında üretilen içeriklerde de benzer bir tablo ortaya çıktı. Fakat medya yanlılığı gibi popüler siyasi sorularda model farklı kaynaklara yöneldi.
Bu noktada, kaynak seçiminin bağlama göre değiştiği anlaşılıyor. Ne var ki bu değişkenlik, dışarıdan bakıldığında tutarlı bir sistem hissi vermiyor. Tam da bu nedenle tartışma, modelin yanıt üretme kapasitesinden ziyade bilgi altyapısının şeffaflığına odaklanıyor.
OpenAI kaynak çeşitliliğini savunuyor, tartışma büyüyor
Grokipedia, xAI destekli bir çevrim içi ansiklopedi olarak GPT-5.2’den önce kullanıma açıldı. Kısa sürede görünürlük kazanan platform, bazı maddelerinde neo-Nazi forumlarına uzanan referanslar içermesi nedeniyle eleştirilmişti. ABD merkezli akademik bir çalışma da ansiklopedide “sorunlu” ve doğrulanması güç kaynaklara rastlandığını ortaya koydu. Buna rağmen GPT-5.2, belirli başlıklarda bu içeriği bilgi zincirine dahil etti.
OpenAI ise Guardian’a yaptığı açıklamada, modelin “kamuya açık çok sayıda kaynak ve bakış açısını” taradığını belirtti. Şirket, yüksek riskli zararlara yol açabilecek bağlantıları azaltmak için güvenlik filtreleri uyguladığını da vurguladı. Buna ek olarak, kaynak gösteriminin kullanıcıya açık biçimde sunulduğu ifade edildi. Fakat bu yaklaşım, kaynakların güvenilirlik algısını dolaylı biçimde güçlendirme riskini ortadan kaldırmıyor.
Burada önemli bir ayrıntı öne çıkıyor. Bir yapay zekâ modeli, bir kaynağı referans gösterdiği anda, o kaynağı bilgi ekosisteminin görünür bir parçası hâline getiriyor. Bu durum, tartışmalı platformların AI yanıtları üzerinden meşruiyet kazanmasına yol açabiliyor. Tüm bunların yanında, farklı modellerin benzer kaynaklara yönelmesi, sorunun tek bir ürünle sınırlı olmadığını gösteriyor.
GPT-5.2, tablo oluşturma, karmaşık görevleri yönetme ve profesyonel iş akışlarını destekleme gibi alanlarda konumlanıyor. Buna rağmen modelin hangi bilgiyi, hangi kaynaktan aldığı konusu, bu yeteneklerin önüne geçen bir tartışma başlığı hâline geldi. Kaynak tercihleri üzerindeki bu belirsizlik, yapay zekâ sistemlerinin doğruluk ve şeffaflık beklentilerini yeniden gündeme taşıyor.
Teknoblog, teknoloji gündemini farklı platformlarda düzenli biçimde paylaşıyor. WhatsApp kanalında öne çıkan haberleri anlık olarak aktarıyor, Google Haberler üzerinden güncel içerikleri sunuyor, Instagram ve X hesaplarında dikkat çeken başlıkları özetliyor, YouTube kanalında ise ürün incelemeleri ve detaylı anlatımlarla içeriği tamamlıyor.







