ManşetlerTeknoloji

Microsoft, şimdiye kadarki en küçük yapay zeka modeli Phi-3’ü tanıttı

microsoft yapay zekâ

Microsoft, bu haftanın hemen başında, yeni yapay zeka modeli Phi-3 Mini’yi tanıttı. Bu model, şirketin planladığı üç küçük modelden ilki olarak dikkat çekiyor. Phi-3 Mini, 3.8 milyar parametre ile eğitilmiş ve büyük dil modellerine göre daha küçük bir veri seti kullanılarak hazırlandı.

Şirket, Phi-3 Mini’yi Azure, Hugging Face ve Ollama platformlarında kullanıma sundu. Ayrıca, Phi-3 Small (7 milyar parametre) ve Phi-3 Medium (14 milyar parametre) modellerini de piyasaya sürmeyi planlıyor. Parametreler, bir modelin anlayabileceği karmaşık talimatların sayısını ifade ediyor.

Microsoft Phi-3 Mini: Küçük boyut, büyük işlevsellik

Microsoft’un AI Platformu Kurumsal Başkan Yardımcısı Eric Boyd, Phi-3 Mini’nin GPT-3.5 gibi büyük dil modelleri (LLM) kadar yetenekli olduğunu belirtti ve “daha küçük bir form faktöründe aynı kapasiteye sahip” olduğunu ifade etti. Bu modellerin büyük kardeşlerine göre daha ucuza çalıştırılabilmesi ve kişisel cihazlarda daha iyi performans göstermesi gibi avantajları bulunuyor.

Bu yılın başlarında The Information, Microsoft’un hafif yapay zeka modellerine odaklanacak özel bir ekip kurduğunu bildirmişti. Phi serisi yanı sıra, matematik problemlerini çözmek için tasarlanmış Orca-Math modelini de geliştiren şirket, bu alanda önemli adımlar atıyor.

Rakip şirketler de kendi küçük yapay zeka modellerini geliştiriyorlar. Örneğin, Google’ın Gemma 2B ve 7B modelleri basit sohbet botları ve dil ile ilgili çalışmalar için uygundur. Anthropic’in Claude 3 Haiku modeli yoğun araştırma makalelerini hızlıca özetleyebilir, Meta’nın yeni çıkan Llama 3 8B modeli ise bazı sohbet botları ve kodlama yardımcıları için kullanılabilir.

Boyd, Phi-3’ün eğitimi için “müfredat” tabanlı bir yaklaşım benimsediklerini belirtti. Geliştiriciler, çocukların yatmadan önceki hikayelerden, daha basit kelimelerle yazılmış kitaplardan ve geniş konuları ele alan cümle yapılarından nasıl öğrendiklerinden ilham aldılar. Boyd, “Yeterli çocuk kitabı olmadığı için, Phi’yi eğitmek için bir LLM’den 3000’den fazla kelime kullanarak ‘çocuk kitapları’ yapmasını istedik,” dedi.

Phi-3, önceki sürümlerin üzerine yeni özellikler ekleyerek daha da gelişti. Phi-1 kodlama üzerine yoğunlaşmışken, Phi-2 mantık yürütme yeteneğini geliştirmeye başlamıştı. Phi-3, kodlama ve mantık yürütme konularında daha yetenekli hale geldi. Ancak, genel bilgi birikimine sahip olmasına rağmen Phi-3, GPT-4 gibi tam biçimde internet üzerinde eğitilmiş büyük bir modelin verdiği yanıtların çeşitliliği ile yarışamaz gibi görünüyor.

Teknoblog’u XFlipboard, Google Haberler ve Instagram‘da takip et!

İLGİLİ HABERLER