Teknoloji

Eski OpenAI kurucusu Ilya Sutskever’den yeni bir yapay zekâ şirketi

ilya sutskever

OpenAI’nın kurucu ortaklarından ve eski baş bilimcisi Ilya Sutskever, yapay zekâ güvenliğine odaklanan yeni bir şirket kurdu. Çarşamba günü yaptığı bir açıklamada Sutskever, Safe Superintelligence Inc. (SSI) adını verdiği yeni girişimini tanıttı. Bu şirketin temel hedefi, güvenli ve güçlü bir yapay zekâ sistemi geliştirmek olacak.

SSI’ın kuruluşu, yapay zeka güvenliği ve yeteneklerini eşzamanlı olarak ele alma amacı taşıyor. Şirketin açıklamasında, SSI’ın, güvenlik ve yeteneklerin aynı anda ilerlemesini sağlayan bir yaklaşıma sahip olduğu belirtiliyor. Bu sayede, şirketin yapay zeka sistemini hızla geliştirmesi mümkün olurken, güvenlik her zaman öncelikli olacak.

SSI’ın vizyonu ve iş modeli

SSI’ın iş modeli, güvenlik, güvenlik ve ilerlemeyi kısa vadeli ticari baskılardan izole ederek sürdürmeyi hedefliyor. Açıklamada, şirketin “tek odak noktası” sayesinde yönetim yükü veya ürün döngüleri tarafından dikkatinin dağılmadığı ifade ediliyor. Sutskever, “İş modelimiz sayesinde güvenlik, güvenlik ve ilerleme, kısa vadeli ticari baskılardan izole edilmiş durumda. Bu şekilde huzur içinde büyüyebiliriz.” dedi.

SSI, Sutskever’ın yanı sıra, Apple’ın eski AI lideri Daniel Gross ve OpenAI’nın teknik ekibinde yer almış olan Daniel Levy tarafından da kurulmuş durumda. Bu güçlü ekip, yapay zeka güvenliği konusunda önemli adımlar atmayı hedefliyor.

Sutskever’ın OpenAI’dan ayrılması, geçtiğimiz yıl OpenAI CEO’su Sam Altman’ın görevden alınması için yaptığı baskının ardından gerçekleşti. Mayıs ayında OpenAI’dan ayrılan Sutskever, yeni bir proje başlatacağını ima etmişti. Sutskever’ın ayrılmasının hemen ardından, AI araştırmacısı Jan Leike de OpenAI’dan istifa etti ve güvenlik süreçlerinin “parlak ürünlere” göre geri planda kaldığını belirtti. Aynı dönemde, OpenAI’da politika araştırmacısı olan Gretchen Krueger de güvenlik endişeleri nedeniyle ayrıldığını açıkladı.

OpenAI, Apple ve Microsoft ile ortaklıklarını ilerletirken, SSI’ın bu tür ortaklıklara girmesi beklenmiyor. Bloomberg ile yaptığı bir röportajda Sutskever, SSI’ın ilk ürününün güvenli süper zekâ olacağını ve bu hedefe ulaşana kadar başka bir şeyle uğraşmayacaklarını belirtti.

Sonuç olarak, Ilya Sutskever’ın Safe Superintelligence Inc. girişimi, yapay zekâ alanında güvenlik konusunu öncelikli kılan yenilikçi bir yaklaşımı temsil ediyor. Bu girişim, yapay zeka sistemlerinin güvenli ve etkili bir şekilde geliştirilmesi için önemli bir adım olarak görülüyor.