Teknoloji

OpenAI’dan donanım hamlesi: Cerebras çipli kod modeli saniyede 1.000’den fazla token üretiyor

openai chatgpt

OpenAI, üretim ortamında Nvidia dışı donanım üzerinde çalışan ilk yapay zekâ modelini devreye aldı. Şirket, GPT-5.3-Codex-Spark adını verdiği yeni kodlama modelini, Cerebras tarafından geliştirilen Wafer Scale Engine 3 (WSE-3) çipleri üzerinde kullanıma sundu. Saniyede 1.000’den fazla token üretim hızına ulaşabilen model, OpenAI altyapısında şimdiye kadar sunulan en yüksek performans seviyelerinden birini temsil ediyor. Buna rağmen şirket, modelin bağımsız doğrulamalardan geçmiş ayrıntılı performans verilerini kamuoyuyla paylaşmış değil. Yine de açıklanan rakamlar, özellikle yazılım geliştirme süreçlerinde gecikme sürelerinin kritik olduğu senaryolarda dikkat çekici bir sıçramaya işaret ediyor.

GPT-5.3-Codex-Spark, ChatGPT Pro abonelerine (aylık 200 dolar) araştırma önizlemesi olarak sunuluyor. Model; Codex uygulaması, komut satırı arayüzü ve VS Code eklentisi üzerinden erişilebiliyor. Bunun yanında seçili iş ortaklarına API erişimi de sağlanmaya başlanmış durumda. Lansman aşamasında yalnızca metin tabanlı çalışan model, 128 bin token bağlam penceresiyle geliyor. Her ne kadar görsel ya da çoklu ortam desteği bulunmasa da, odak noktası doğrudan yazılım geliştirme süreçleri olarak belirlenmiş durumda.

OpenAI donanım stratejisinde yön değiştiriyor

Codex-Spark’ın en dikkat çekici yönü yalnızca hız artışı değil; aynı zamanda OpenAI’ın donanım stratejisindeki yön değişikliği. Model, Cerebras’ın yemek tabağı büyüklüğündeki WSE-3 çipi üzerinde çalışıyor. Bu çip, tek parça silikon tasarımıyla veri merkezlerinde yüksek paralel işlem kapasitesi sunmayı hedefliyor. Cerebras daha önce Llama 3.1 70B modelinde saniyede 2.100 token, OpenAI’ın açık ağırlıklı gpt-oss-120B modelinde ise 3.000 token seviyelerine ulaştığını duyurmuştu. Buna rağmen Codex-Spark’ın 1.000 token/saniye düzeyinde kalması, modelin daha karmaşık yapısından kaynaklanan işlem yüküne bağlanıyor.

OpenAI’ın Nvidia’ya bağımlılığını azaltma yönündeki adımları son bir yılda hız kazandı. Ekim 2025’te AMD ile çok yıllı büyük bir anlaşma imzalandı, kasım ayında Amazon ile 38 milyar dolarlık bulut bilişim sözleşmesi yapıldı. Bunun yanında şirketin kendi özel yapay zekâ çipini tasarladığı ve üretim için TSMC ile çalıştığı biliniyor. Öte yandan Nvidia ile planlanan 100 milyar dolarlık altyapı anlaşmasının beklenen ölçekte ilerlemediği, buna rağmen Nvidia’nın 20 milyar dolarlık yatırım taahhüdünde bulunduğu aktarılıyor. Reuters’ın daha önce yayımladığı bir haberde, OpenAI’ın bazı Nvidia çiplerinin çıkarım (inference) hızından memnun kalmadığı belirtilmişti. Codex-Spark tam da bu tür düşük gecikme gerektiren iş yüklerine odaklanıyor.

Modelin performansı, SWE-Bench Pro ve Terminal-Bench 2.0 gibi yazılım mühendisliği kıyaslamalarında GPT-5.1-Codex-mini’ye kıyasla daha iyi sonuçlar verdiği iddiasıyla destekleniyor. Fakat bağımsız test sonuçlarının paylaşılmamış olması, sektör analistlerinin temkinli yaklaşmasına neden oluyor. Buna rağmen 1.000 token/saniye seviyesi, OpenAI’nin Nvidia tabanlı sistemlerde sunduğu GPT-4o (147 token/saniye) ve o3-mini (167 token/saniye) gibi modellere kıyasla kayda değer bir artış anlamına geliyor.

Yapay zekâ destekli kodlama araçları son dönemde yazılım geliştiriciler arasında yaygın biçimde kullanılmaya başlandı. OpenAI Codex ve Anthropic Claude Code gibi araçlar, prototip geliştirme ve arayüz oluşturma süreçlerini hızlandırıyor. Fakat burada belirleyici unsur yalnızca doğruluk değil; aynı zamanda gecikme süresi. Daha hızlı yanıt veren bir model, geliştiricinin deneme-yanılma döngüsünü kısaltıyor. Buna rağmen hız artışı, bazı durumlarda çıktı kalitesinde dalgalanmalara yol açabiliyor.

Codex-Spark’ın sunduğu performans artışı, yazılım geliştirme pratiklerinde yeni bir denge arayışını beraberinde getiriyor. Yüksek hız, üretkenliği artırma potansiyeli taşısa da, karmaşık projelerde doğruluk ve bağlam yönetimi hâlâ kritik önemini koruyor. Donanım tarafındaki çeşitlilik ise yapay zekâ pazarında rekabetin yalnızca model yetenekleriyle sınırlı kalmadığını; altyapı tercihleri ve maliyet optimizasyonunun da belirleyici olduğunu gösteriyor. Bu tablo, önümüzdeki dönemde yapay zekâ şirketlerinin çip üreticileriyle ilişkilerinde daha esnek ve çok paydaşlı bir yapının öne çıkabileceğine işaret ediyor.

Teknoblog, teknoloji gündemini farklı platformlarda düzenli biçimde paylaşıyor. WhatsApp kanalında öne çıkan haberleri anlık olarak aktarıyor, Google Haberler üzerinden güncel içerikleri sunuyor, Instagram ve X hesaplarında dikkat çeken başlıkları özetliyor, YouTube kanalında ise ürün incelemeleri ve detaylı anlatımlarla içeriği tamamlıyor.