
Meta, Llama ailesinde yeni bir yapay zeka modeli koleksiyonu olan Llama 4’ü cumartesi günü yayınladı.
Toplamda dört yeni model var: Llama 4 Scout, Llama 4 Maverick ve Llama 4 Behemoth. Meta, hepsine “geniş görsel anlayış” kazandırmak için “büyük miktarda etiketlenmemiş metin, resim ve video verisi” üzerinde eğitim verildiğini söylüyor.
DeepSeek Rekabeti Hızlandırdı
Çinli AI laboratuvarı DeepSeek’in , Meta’nın önceki amiral gemisi Llama modelleriyle aynı veya daha iyi performans gösteren açık modellerinin başarısı , bildirildiğine göre Llama gelişimini hızlandırdı. Meta’nın, DeepSeek’in R1 ve V3 gibi modelleri çalıştırma ve dağıtma maliyetini nasıl düşürdüğünü çözmek için savaş odalarını karıştırdığı söyleniyor .
Scout ve Maverick Yayında, Behemoth Yolda
Scout ve Maverick, Llama.com’da ve AI dev platformu Hugging Face dahil Meta’nın ortaklarında açıkça mevcutken , Behemoth hala eğitim aşamasında. Meta, WhatsApp, Messenger ve Instagram gibi uygulamalardaki AI destekli asistanı Meta AI’nın 40 ülkede Llama 4’ü kullanacak şekilde güncellendiğini söylüyor. Çok modlu özellikler şimdilik İngilizce olarak ABD ile sınırlı.
Bazı geliştiriciler Llama 4 lisansına itiraz edebilir.
AB’de Kısıtlamalar ve Lisans Sorunları Yaşanıyor
AB’de “ikamet eden” veya “ana iş yeri” bulunan kullanıcılar ve şirketler, büyük olasılıkla bölgenin yapay zeka ve veri gizliliği yasalarının dayattığı yönetim gerekliliklerinin bir sonucu olarak modelleri kullanmaktan veya dağıtmaktan men edilmiştir . (Geçmişte Meta bu yasaları aşırı külfetli olarak nitelemiştir.) Ayrıca, önceki Llama sürümlerinde olduğu gibi, aylık 700 milyondan fazla aktif kullanıcısı olan şirketler, Meta’dan kendi takdirine bağlı olarak verebileceği veya reddedebileceği özel bir lisans talep etmelidir.
Meta bir blog yazısında , “Bu Llama 4 modelleri, Llama ekosistemi için yeni bir dönemin başlangıcını işaret ediyor,” diye yazdı . “Bu, Llama 4 koleksiyonu için sadece bir başlangıç.”
Meta, Llama 4’ün, eğitim ve sorguları yanıtlama açısından daha hesaplamalı olarak verimli olan bir uzmanlar karışımı (MoE) mimarisi kullanan ilk model grubu olduğunu söylüyor. MoE mimarileri temel olarak veri işleme görevlerini alt görevlere ayırır ve sonra bunları daha küçük, uzmanlaşmış “uzman” modellere devreder.
Örneğin Maverick’in toplam 400 milyar parametresi var, ancak 128 “uzman” arasında yalnızca 17 milyar etkin parametresi var. (Parametreler kabaca bir modelin problem çözme becerilerine karşılık gelir.) Scout’un 17 milyar etkin parametresi, 16 uzmanı ve toplam 109 milyar parametresi var.
Meta’nın dahili testlerine göre, şirketin yaratıcı yazarlık gibi “genel asistan ve sohbet” kullanım durumları için en iyi olduğunu söylediği Maverick, OpenAI’nin GPT-4o ve Google’ın Gemini 2.0 gibi modellerini belirli kodlama, muhakeme, çok dilli, uzun bağlam ve görüntü kıyaslamalarında geride bırakıyor. Ancak Maverick, Google’ın Gemini 2.5 Pro , Anthropic’in Claude 3.7 Sonnet ve OpenAI’nin GPT-4.5 gibi daha yetenekli yeni modellerle tam olarak boy ölçüşemiyor .
Scout’un güçlü yönleri, belge özetleme ve büyük kod tabanları üzerinde akıl yürütme gibi görevlerde yatar. Benzersiz bir şekilde, çok büyük bir bağlam penceresine sahiptir: 10 milyon belirteç. (“Belirteçler” ham metin parçalarını temsil eder – örn. “fantastic” kelimesi “fan”, “tas” ve “tic” olarak bölünür.) Basitçe söylemek gerekirse, Scout görüntüleri ve milyonlarca kelimeyi alabilir ve bu da son derece uzun belgeleri işlemesine ve bunlarla çalışmasına olanak tanır.
Meta’nın hesaplamalarına göre, Scout tek bir Nvidia H100 GPU’da çalışabilirken, Maverick’in bir Nvidia H100 DGX sistemine veya eşdeğerine ihtiyacı var.
Meta’nın piyasaya sürülmemiş Behemoth’unun daha da güçlü bir donanıma ihtiyacı olacak. Şirkete göre Behemoth’un 288 milyar aktif parametresi, 16 uzmanı ve yaklaşık iki trilyon toplam parametresi var. Meta’nın dahili kıyaslaması, Behemoth’un matematik problemi çözme gibi STEM becerilerini ölçen çeşitli değerlendirmelerde GPT-4.5, Claude 3.7 Sonnet ve Gemini 2.0 Pro’yu (ancak 2.5 Pro’yu değil) geride bıraktığını gösteriyor.
Dikkat çekici olan, Llama 4 modellerinin hiçbiri OpenAI’nin o1 ve o3-mini’si gibi düzgün bir “akıl yürütme” modeli değildir . Akıl yürütme modelleri cevaplarını doğrular ve genellikle sorulara daha güvenilir bir şekilde yanıt verir, ancak sonuç olarak cevapları sunmak için geleneksel, “akıl yürütmeyen” modellerden daha uzun zaman alır.
İlginçtir ki, Meta, tüm Llama 4 modellerini “tartışmalı” soruları daha az sıklıkta yanıtlamayı reddedecek şekilde ayarladığını söylüyor. Şirkete göre, Llama 4, önceki Llama modellerinin yanıtlamadığı “tartışmalı” politik ve sosyal konulara yanıt veriyor. Ayrıca şirket, Llama 4’ün “dramatik olarak daha dengeli” olduğunu ve bu istemleri kesinlikle eğlendirmeyeceğini söylüyor.
“[L]lama 4’ün yargılamadan yardımcı, gerçekçi yanıtlar sağlayacağına güvenebilirsiniz,” dedi bir Meta sözcüsü TechCrunch’a. “[L]lama’yı daha duyarlı hale getirmeye devam ediyoruz, böylece daha fazla soruya yanıt verebilir, çeşitli farklı bakış açılarına yanıt verebilir […] ve bazı görüşleri diğerlerine tercih etmez.”
Bu değişiklikler, Beyaz Saray’ın bazı müttefiklerinin yapay zeka sohbet robotlarını politik açıdan fazla “uyanık” olmakla suçlamasının ardından geldi.
Milyarder Elon Musk ve kripto ve yapay zeka “çarı” David Sacks da dahil olmak üzere Başkan Donald Trump’ın yakın sırdaşlarının çoğu, popüler yapay zeka sohbet robotlarının muhafazakar görüşleri sansürlediğini iddia etti . Sacks, tarihsel olarak OpenAI’nin ChatGPT’sini “uyandırılmak üzere programlanmış” ve politik konularda yalancı olarak niteledi .
Aslında, yapay zekadaki önyargı, çözümü zor bir teknik sorundur. Musk’ın kendi yapay zeka şirketi xAI, bazı siyasi görüşleri diğerlerinden daha fazla desteklemeyen bir sohbet robotu yaratmak için çabaladı .
Bu durum, OpenAI gibi şirketlerin , özellikle tartışmalı konularla ilgili sorular olmak üzere, daha önce olduğundan daha fazla soruyu yanıtlamak için yapay zeka modellerini ayarlamalarını engellemedi .