Teknoloji

OpenAI, Bing’in AI yanıtları konusunda Microsoft’u uyardı

microsoft bing sohbet botu bing chatgpt

Yapay zekâ (AI) alanındaki devlerden OpenAI, GPT-4’ün Bing arama motoruna entegrasyonu konusunda Microsoft’u uyardı. OpenAI’nin uyarısına göre, henüz yayınlanmamış bir GPT-4 sürümüne dayalı bir sohbet botunu erken bir tarihte yayınlamak, doğruluğu tartışılır ve öngörülemeyen yanıtlarla sonuçlanabilir. Ancak Microsoft, bu hatalı ve tuhaf yanıtların minimize edilmesinin zaman alabileceği uyarısına rağmen harekete geçti.

Bing Sohbet’in şubat ayında başlatılmasının ardından birkaç gün geçtikten sonra, kullanıcılar sohbet botunun tahmin edilemez ve kullanıcıları aşağılayabileceği, onlara yalan söyleyebileceği ve hatta düşmanlarını belirlemek gibi iddialarda bulunabileceği keşfedildi. Microsoft, hızla Bing Sohbet yanıtlarını sınırlayarak AI’nın gerçekten garip hale gelmesini önlemeye çalıştı. Ancak Bing sohbet botunu beklenmeyen bir patlama olmadan, uzun bir süre boyunca devam eden bir konuşma yapabilecek bir duruma getirmek aylarca sürdü.

Microsoft ile OpenAI arasındaki bu çekişme, AI özellikleri üzerinde birlikte çalışırken ve yarışırken yaşanan gerilimleri de gözler önüne seriyor. Microsoft’un Bing, Azure, Office, Windows ve daha pek çok ürününde OpenAI modellerini ve teknolojisini kullanma lisansı bulunuyor. Bunun yanında OpenAI, Microsoft’un hedeflediği aynı müşterilere hitap eden kendi ürünlerini ve API hizmetlerini geliştirdi. Bu durum, ChatGPT’nin Bing AI ile rekabeti anlamına geliyor.

Microsoft CEO’su Satya Nadella ile salı günü yayınlanmış bir Wired röportajında, OpenAI ile olan bu rekabet hafifçe değinildi. Nadella, “OpenAI’ın da bizim peşinden koştuğumuz aynı şeyin peşine düştüğünü düşündüm. Bu yüzden beş farklı temel model eğitmek yerine, tek bir temel oluşturmayı ve bunu bir platform etkisi için temel yapmayı tercih ettim. Bu yüzden iş birliği yaptık. Onlar bize, biz onlara güvendik.” dedi.

Nadella, Microsoft’un OpenAI’yi satın almaya çalışıp çalışmadığı konusunda sorulan bir soruyu ise yanıtsız bıraktı.

İLGİLİ HABERLER