Yapay zekâ tabanlı sohbet botu ChatGPT, uzun süredir kullanıcıların her konuda bilgi aldığı bir araç olarak görülüyordu. İnsanlar vücutlarındaki bir belirtiyi açıklıyor, boşanma protokolü istiyor ya da yatırım fikri arıyordu. Fakat bu durum, OpenAI’ın aldığı yeni kararla birlikte değişti. Artık ChatGPT, kişisel tavsiye vermek yerine yalnızca genel bilgiler sunacak.
Yeni kurallar, 29 Ekim 2025 itibarıyla yürürlüğe girdi. Bundan böyle ChatGPT, sağlıkla ilgili semptomlar için ilaç ismi veremeyecek ya da bir hastalığın olası tedavisini söyleyemeyecek. Hukuki belgeler, sözleşme örnekleri ya da dava dilekçeleri gibi içerikler de artık oluşturulmayacak. Aynı şekilde, model yatırım yapmanızı önerecek ya da hisse alım-satımıyla ilgili görüş bildiremeyecek. Kullanıcıya yalnızca konuyla ilgili temel prensipler anlatılacak, ardından bir uzmana başvurması önerilecek.
ChatGPT genel bilgileri açıklayan bir sistem olacak
Bu kararla birlikte OpenAI, ChatGPT’nin bir danışman gibi davranmasını engellemiş oldu. Tüm bunların yanında şirketin bu kısıtlamaları getirmesinin ardında çok daha somut bir gerekçe yatıyor. NEXTA’nın aktardığına göre büyük teknoloji şirketleri, yasal sorumluluk altına girmemek için bu tür içerikleri bilinçli olarak engellemeye başladı. Zira, yanlış bilgiye dayanarak yapılan eylemler, kullanıcılar açısından ciddi sonuçlar doğurabiliyor. Bu da şirketin dava riskiyle karşı karşıya kalmasına neden oluyor.
Her ne kadar ChatGPT karmaşık kavramları sadeleştirerek anlatma konusunda başarılı olsa da, belirli alanlarda bu yetkinlik yetersiz kalıyor. Özellikle tıp, hukuk ve finans gibi uzmanlık gerektiren alanlarda, yanlış veya eksik bilgi vermesi ciddi zararlara yol açabiliyor. Göğsünde bir şişlik hisseden biri, durumu ChatGPT’ye anlattığında model ciddi bir hastalığı gündeme getirebilir. Oysa bu tür bir belirti, sadece basit bir yağ bezesi de olabilir. İşte bu nedenle gerçek tanı koyma işi doktorlara bırakılmalı, yapay zekâya bu anlamda güvenilmemeli.
Bu noktada dikkat çeken bir başka konu da, ChatGPT’nin psikolojik destek amacıyla kullanılma eğilimi. Bazı kullanıcılar duygusal zorluk yaşadıklarında modele başvuruyor, ona dertlerini anlatıyor. Ne var ki, empati kuramayan bir yapay zekânın bu tür bir rolü üstlenmesi büyük risk taşıyor. Üstelik bir terapistin yasal sorumlulukları ve profesyonel etik kuralları bulunurken, ChatGPT bu tür bir çerçeveye sahip değil. Bu durum, özellikle hassas kullanıcılar için zararlı sonuçlara yol açabilir.
Finansal konularda da benzer tehlikeler geçerli. Yapay zekâ, bir finansal terimin ne anlama geldiğini açıklayabilir. Fakat bir bireyin gelir durumu, borç miktarı, yatırım hedefleri gibi kişisel bilgileri hesaba katmadan tavsiye sunması oldukça riskli. Ayrıca bazı kullanıcılar, ChatGPT’ye banka hesap bilgilerini ya da vergi numaralarını girerek hızlı yanıt almaya çalışabiliyor. Oysa bu verilerin sisteme yazılması, geri dönüşü olmayan veri güvenliği açıklarına neden olabiliyor.
Hukuki belgeler açısından da durum pek farklı değil. ChatGPT’nin sunduğu taslaklar, genellikle genel geçer metinlerden oluşuyor. Ancak her ülkenin, hatta her eyaletin farklı hukuk kuralları olduğu düşünüldüğünde, bu belgelerin geçerliliği büyük ölçüde tartışmalı hale geliyor. Noter onayı eksik ya da yanlış bir ifade nedeniyle söz konusu belge tamamen hükümsüz olabilir. Yapay zekânın bu alanlardaki yetersizliği, kısıtlamaların temel nedenlerinden biri olarak öne çıkıyor.







