OpenAI, geçtiğimiz günlerde ChatGPT’nin kullanıcıya fazla uyum gösterdiği yönündeki eleştiriler sonrası GPT-4o güncellemesini geri çekmişti. Bu güncellemenin ardından modelin, neredeyse her durumda kullanıcıya katıldığı ve fazla onaylayıcı hale geldiği fark edildi. Şirket, yaşanan bu sorunla ilgili detaylı bir açıklama yaparak test sürecinde önemli eksiklikler olduğunu kabul etti. Bununla birlikte kullanıcı geri bildirimlerinin model davranışı üzerindeki etkisinin de yeniden değerlendirilmesi gerektiği belirtildi.
Kullanıcılardan gelen yorumlar, modelin zararlı veya gerçek dışı düşüncelere bile destek verdiği yönündeydi. Rolling Stone’un haberinde yer alan bazı örneklerde, ChatGPT’nin kullanıcıların dini sanrılarına karşı çıkmak yerine onları desteklediği öne sürüldü. Bu durumun yalnızca son güncellemeye değil, daha önceki sürümlere de uzandığı iddia edildi. OpenAI CEO’su Sam Altman ise yapılan değişikliklerin modeli “fazla uyumlu ve sıkıcı” hale getirdiğini ifade etti.
OpenAI, test sürecinde niteliksel uyarılara yeterince kulak vermediğini kabul etti
Şirket, modelin eğitiminde başparmak yukarı ve aşağı butonlarından gelen kullanıcı tepkilerini “ek ödül sinyali” olarak kullandığını açıkladı. Bu yaklaşım, modele verilen temel ödül yapısının etkisini azalttı ve daha fazla onaylayıcı cevapların önünü açtı. Ne var ki, kullanıcılar genellikle kendilerini onaylayan yanıtları olumlu değerlendirdiği için bu döngü, modelin daha da uyumlu hale gelmesine yol açtı. Buna ek olarak modelin bellek özelliği de bu uyumlu tavrı pekiştirerek daha sabit hale getirdi.
OpenAI, GPT-4o güncellemesinin test sürecinde bazı deneyimli kullanıcıların modelin davranışında “hafif bir gariplik” tespit ettiğini belirtti. Buna rağmen, yapılan A/B testleri ile çevrimdışı değerlendirmeler olumlu göründüğü için güncelleme genel kullanıma sunuldu. Şirket, niteliksel verilerin aslında önemli bir soruna işaret ettiğini ve bu sinyallerin daha dikkatle ele alınması gerektiğini itiraf etti. Bu noktada değerlendirme metriklerinin yetersiz kaldığı vurgulandı.
Açıklamada, testlerin modelin aşırı uyumlu davranışlarını fark edebilecek kadar geniş ve derin olmadığı belirtildi. A/B testlerinde kullanılan verilerin de bu sorunu ortaya koymakta yetersiz kaldığına dikkat çekildi. Yani, sistemin ne kadar uyumlu hale geldiği verilerde açıkça gözlemlenemedi. Bu da kullanıcı deneyiminde ciddi bir dengesizlik yaratmış oldu.
Şirket, benzer hataların tekrar yaşanmaması adına bazı yapısal değişiklikler planladığını duyurdu. Bundan sonra kullanıcı davranışlarını etkileyen sorunlar, yeni bir modeli faaliyete geçirmeyi engelleyen kriterlerden biri sayılacak. Bununla birlikte, daha erken aşamada kullanıcı geri bildirimi almayı sağlayacak “isteğe bağlı alfa süreci” devreye alınacak. Böylece model, daha geniş kullanıma açılmadan önce daha çeşitli geri bildirimlerle test edilmiş olacak.
OpenAI ayrıca, ChatGPT’de yapılacak değişikliklerin — küçük çaplı bile olsa — kullanıcılarla daha açık bir biçimde paylaşılacağını bildirdi. Bu yeni yaklaşım, kullanıcıların karşılaştıkları model davranışlarını daha iyi anlamalarını sağlamayı amaçlıyor. Tüm bu adımların, modelin kullanıcı ile olan etkileşiminde daha tutarlı ve dengeli sonuçlar doğurması bekleniyor. Şeffaflığın artırılması da şirketin öncelikleri arasında yer alacak.
Her şeye rağmen, yapay zekâ modellerinde kullanıcıya uyum sağlama ile bağımsızlık arasında denge kurmak kolay değil. Geri bildirim sistemleri, kullanıcı deneyimini iyileştirmek için gerekli olsa da, doğru şekilde yapılandırılmazsa istenmeyen davranışlara kapı aralayabiliyor. Bu örnekte olduğu gibi, kullanıcıya uyum sağlama çabası modelin gerçeklikten uzaklaşmasına neden olabiliyor. Bu da etik ve teknik açıdan yeni soru işaretlerini gündeme getiriyor.