Llama 4 Maverick
400B parametre, 128 uzman - Meta'nın en yetenekli açık modeli
Llama 4 Maverick, birden fazla kıyaslama kategorisinde tutarlı bir şekilde GPT-4o'yu geçen ilk açık ağırlıklı modeldir. 128 uzmanlı uzman havuzundan yönlendirilen 400B toplam parametre ve token başına yalnızca 17B aktif parametre ile, tescilli bir API maliyeti olmadan sınır sınıfı akıl yürütme, kodlama ve çok modlu anlama sunar. İster gelişmiş kod üretimi, ister bilimsel analiz veya görüntü anlama gerektirsin, Llama 4 Maverick, kapalı kaynak liderlerinin kalitesini istediğiniz her yerde dağıtabileceğiniz açık ağırlıklı bir pakete getirir.
Model varyantları
Talımat ayarlı ve temel modeller
Sohbet ve karmaşık görevler için optimize edilmiş talimat ayarlı varyant veya ince ayar ve araştırma için temel model arasında seçim yapın.
128-Uzmanlı MoE Mimarisi
400B toplam parametre, token başına 17B aktif
Maverick, Scout'un 16'sından 128 uzmana ölçeklenir, aynı 17B aktif ayak izini korurken 400B toplam parametre paketler. Bu, önemli ölçüde daha güçlü akıl yürütme, kodlama ve çok modlu yetenekler sağlar.
Bu sitedeki varsayılan sohbet modeli. Maksimum kalite gerektiren görevler için en iyi: karmaşık akıl yürütme, kod üretimi, çok modlu analiz ve araştırma sentezi.
Talimat ayarlı
Maverick Instruct
Konuşmalı AI, karmaşık akıl yürütme ve kod üretimi için optimize edilmiş
Talimatları takip etmek ve çok turlu diyalog için RLHF ile ince ayarlanmış
Önceden eğitilmiş
Maverick Base
İnce ayar ve özel uygulamalar için temel MoE modeli
128 uzmanlı yönlendirme ile çeşitli çok modlu veriler üzerinde önceden eğitilmiş
Yetenekler
Llama 4 Maverick'ten sınır performansı
Llama 4 Maverick, 128 uzmanlı MoE verimliliğini gelişmiş akıl yürütme, güçlü kodlama ve yerel çok modlu anlama ile birleştirir. Her yetenek, token başına 17B aktif parametrede maksimum kalite için ayarlanmıştır, bu da onu tescilli sınır modellerine pratik bir alternatif yapar.
128 uzmanlı MoE
Her tokenı 128'lik bir uzman havuzundan uzman uzmanlara yönlendirir. 400B toplam parametre, token başına yalnızca 17B çıkarım maliyetiyle sınır kalitesi sunar. Bu mimari, her uzmanın matematikten yaratıcı yazmaya kadar belirli alanlarda derin uzmanlık geliştirmesini sağlar, bu da çeşitli görevlerde tutarlı yüksek kaliteyle sonuçlanır.
Gelişmiş akıl yürütme
MMLU Pro (%80.5) ve GPQA Diamond (%69.8) üzerindeki güçlü performans, derin bilgi ve bilimsel akıl yürütme gösterir. Llama 4 Maverick, çok adımlı mantığı, matematiksel kanıtları ve karmaşık analitik görevleri, tescilli alternatiflere eşit veya üstün bir doğrulukla ele alır. 128 uzmanlı mimari, farklı uzmanların her akıl yürütme adımında özelleşmiş bilgi katkıda bulunmasına izin verir.
Kod üretimi
LiveCodeBench v5 dahil kodlama kıyaslamalarında GPT-4o'yu geçer. Llama 4 Maverick, düzinelece programlama dilinde üretime hazır kod üretir, karmaşık sorunları ayıklar ve algoritmik yaklaşımları net bir şekilde açıklar. Yerel fonksiyon çağırma, modelin otonom olarak kod çalıştırabildiği, API'leri çağırabildiği ve araç işlemlerini zincirleyebildiği ajan iş akışlarını sağlar.
1M token bağlam
1 milyon token bağlam penceresi içinde uzun belgeleri, kod tabanlarını ve genişletilmiş konuşmaları işleyin. Scout aşırı uzun bağlam görevleri için 10M token sunarken, Llama 4 Maverick'teki 1M pencere, tam proje analizi, uzun araştırma makaleleri ve yüzlerce değişimi kapsayan çok turlu konuşmalar dahil çoğu üretim kullanım durumu için yeterlidir.
Yerel çok modlu
Erken kaynaşma mimarisi, metni ve görüntüleri yerel olarak baştan sona birlikte işler. Ayrı görüntü işlem hatları olmadan ekran görüntülerini, diyagramları, grafikleri, teknik çizimleri ve belgeleri metinle birlikte analiz edin. Llama 4 Maverick, MMMU'da %73.4 puan alarak, adanmış görüntü modelleriyle rekabet eden güçlü görsel akıl yürütme gösterir.
Çok dilli
Birden fazla dilde güçlü performans, Llama 4 Maverick'i küresel uygulamalar için uygun hale getirir. Model, çeviri, diller arası akıl yürütme ve kültürel olarak nüanslı içerik üretimini tutarlı kalitede ele alır. Kullanıcılarınız İngilizce, Çince, İspanyolca, Fransızca veya diğer desteklenen dillerde iletişim kursa da, çıktı kalitesi yüksek kalır.
Önemli noktalar
Llama 4 Maverick neden öne çıkıyor
Llama 4 Maverick, birden fazla kıyaslama kategorisinde tutarlı bir şekilde GPT-4o'yu geçen ilk açık ağırlıklı modeldir.
Kıyaslama önemli noktaları
- MMLU Pro %80.5 - tescilli sınır modelleriyle rekabetçi
- GPQA Diamond %69.8 - güçlü bilimsel akıl yürütme
- MMMU %73.4 - mükemmel çok modlu anlama
- Kodlama kıyaslamalarında GPT-4o'yu geçer
- Arena ELO üst düzey modellerle rekabetçi
Teknik özellikler
- 400B toplam parametre, token başına 17B aktif
- MoE mimarisinde 128 uzman
- 1M token bağlam penceresi
- Yerel çok modlu (metin + görüntü)
- Llama 3.1 uyumlu lisans
Performans
Llama 4 Maverick'ten sınır kalitesi
Llama 4 Maverick, MMLU Pro'da %80.5 ve MMMU'da %73.4 elde eder, token başına yalnızca 17B parametre etkinleştirirken birden fazla kıyaslamada GPT-4o'yu geçer.
Kıyaslama sonuçları ilgi çekici bir hikaye anlatır, ancak gerçek dünya performansı Llama 4 Maverick'in kendini gerçekten kanıtladığı yerdir. Geliştiriciler, kod üretimi kalitesinin en iyi tescilli modellerle rekabet ettiğini, daha az halüsinasyon ve daha doğru fonksiyon uygulamalarıyla olduğunu bildiriyor. Araştırmacılar, bilimsel akıl yürütme görevlerinin iyi yapılandırılmış, alıntı farkında yanıtlar ürettiğini buluyor. 128 uzmanlı mimari, modelin her alt görev için derinlemesine özelleşmiş bilgiye başvurabilmesi anlamına gelir, bu da genel bir uzmandan ziyade bir alan uzmanından geliyormuş gibi hissedilen çıktılarla sonuçlanır.
MMLU Pro %80.5 - sınır sınıfı bilgi ve akıl yürütme
GPQA Diamond %69.8 - güçlü bilimsel akıl yürütme
MMMU %73.4 - mükemmel çok modlu anlama
Kodlama kıyaslamalarında GPT-4o'yu geçer
400B toplamdan 17B aktif parametre (128 uzman)
Kıyaslama karşılaştırması
Maverick vs Scout ve önceki nesil
Maverick'in 128 uzmanlı mimarisi, tüm kategorilerde Scout ve Llama 3.1 üzerinde önemli iyileştirmeler sunar.
| Benchmark | Llama 4 Maverick 128 uzman Öne Çıkan | Llama 4 Scout 16 uzman | Llama 3.1 70B Yoğun | GPT-4o Tescilli |
|---|---|---|---|---|
MMLU Pro Bilgi ve akıl yürütme | %80.5 | %74.3 | %66.4 | %78.4 |
GPQA Diamond Bilimsel bilgi | %69.8 | %57.2 | %46.7 | %53.6 |
LiveCodeBench v5 Kodlama | %43.4 | %32.8 | %28.5 | %37.0 |
MMMU Çok modlu | %73.4 | %69.4 | - | %69.1 |
Bağlam Penceresi Maksimum token | 1M | 10M | 128K | 128K |
Toplam Parametreler Model boyutu | 400B | 109B | 70B | - |
Aktif Parametreler Token başına | 17B | 17B | 70B | - |
Meta'nın resmi model kartından ve bağımsız değerlendirmelerden veriler.
128-Uzmanlı Ölçek
Llama 4 Maverick 400B kapasiteyi 17B maliyetle nasıl sunar
Llama 4 Maverick'teki 128 uzmanlı MoE mimarisi, Scout'un 16 uzmanından önemli bir ölçek büyümedir. Her token özelleşmiş uzmanlara yönlendirilir, modele her ileri geçişte yalnızca 17B etkinleştirirken 400B parametrelik bilgiye erişim sağlar. Bu tasarım, sınır sınıfı bilgi işlem gereksinimleri olmadan sınır sınıfı kalite sağlar.
- Token başına 8 kat daha fazla uzmanlık için Scout'un 16'sına karşı 128 uzman
- Daha derin bilgi kapasitesi için Scout'un 109B'sine karşı 400B toplam parametre
- Verimli çıkarım için Scout ile aynı token başına 17B aktif parametre maliyeti
- Her uzman eğitim sırasında derin alan uzmanlığı geliştirir
- Seyrek yönlendirme, her girdi için en iyi uzman seçimini sağlar
Çok modlu
Llama 4 Maverick'te yerel görüntü anlama
Llama 4 Maverick, metni ve görüntüleri yerel olarak birlikte işlemek için erken kaynaşma mimarisi kullanır. Görsel anlama, baştan sona modele yerleşiktir, ayrı bir modül olarak sonradan eklenmez. Bu, güçlü görsel kıyaslama performansı ile her iki modda sorunsuz akıl yürütme ile sonuçlanır.
- MMMU çok modlu kıyaslamasında %73.4, GPT-4o'nun %69.1'ini geçiyor
- Ayrı işlem hatları olmadan yerel çok modlu işleme için erken kaynaşma mimarisi
- Ekran görüntülerini, diyagramları, grafikleri ve teknik belgeleri hassasiyetle analiz edin
- UI geliştirme iş akışları için görsel analizi kod üretimiyle birleştirin
- Hem metin hem de gömülü görüntüler içeren karışık içerikli belgeleri işleyin
Kodlama
Llama 4 Maverick ile kodlama ve fonksiyon çağırma
Llama 4 Maverick, kodlama kıyaslamalarında GPT-4o'yu geçer ve otonom ajan iş akışları oluşturmak için yerel fonksiyon çağırma içerir. İster üretime hazır kod üretmeniz, karmaşık sorunları ayıklamanız veya araç kullanan ajanlar oluşturmanız gerektirsin, 128 uzmanlı mimari, programlama dilleri ve çerçeveler arasında özelleşmiş bilgi sağlar.
- LiveCodeBench v5'te %43.4, aynı kıyaslamada GPT-4o'nun %37.0'ını geçiyor
- İnce ayar olmadan otonom ajan iş akışlarını sağlayan yerel fonksiyon çağırma
- Python, JavaScript, TypeScript, Rust ve daha fazlası arasında üretime hazır kod üretin
- Kod tabanınız genelinde tam bağlam farkındalığı ile karmaşık çok dosyalı sorunları ayıklayın
- Ajan uygulamalarında uçtan uca görev otomasyonu için birden çok araç çağrısını zincirleyin
Başlangıç
Llama 4 Maverick'i şimdi dene
Anında sohbet etmeye başla veya kendi kendine barındırılan dağıtım için ağırlıkları indir.
İndir ve dağıt
Kendi kendine barındırılan dağıtım
Altyapınızda dağıtım için resmi model ağırlıklarını indirin.
SSS
Llama 4 Maverick hakkında sıkça sorulan sorular
Llama 4 Maverick'in performansı, dağıtımı ve pratik kullanımı hakkında en yaygın soruların yanıtları.
Evet. Llama 4 Maverick, birkaç önemli kıyaslamada GPT-4o'yu geçer. MMLU Pro'da GPT-4o'nun %78.4'üne kıyasla %80.5, GPQA Diamond'da %53.6'ya karşı %69.8, ve LiveCodeBench v5'te %37.0'a karşı %43.4 puan alır. Çok modlu görevlerde, GPT-4o'nun %69.1'ine kıyasla MMMU'da %73.4 elde eder. Bu sonuçlar Meta'nın resmi değerlendirmelerinden ve bağımsız testlerden gelir.
Llama 4 Maverick'i tam hassasiyette çalıştırmak yaklaşık 800 GB VRAM gerektirir, bu da tipik olarak 8 veya daha fazla A100 80 GB GPU kümesi anlamına gelir. INT8 kuantizasyon ile bunu yaklaşık 400 GB'a (kabaca 5 A100 GPU) indirebilirsiniz. INT4 kuantizasyon daha da aşağıya yaklaşık 200 GB'a indirir. Yerel dağıtım kurulumunuz için pratik değilse, bulut sağlayıcıları da barındırılan API erişimi sunar.
128 uzmanlı uzman karışımı mimarisi, Llama 4 Maverick'in çıkarım sırasında token başına yalnızca 17B etkinleştirirken 400B parametre bilgi depolamasına izin verir. Her uzman eğitim sırasında derin uzmanlık geliştirir, bu yüzden yönlendirme mekanizması her girdi için en ilgili uzmanları seçebilir. Bu, modele bir 400B yoğun modelin bilgi derinliğini, bilgi işlem maliyetinin çok küçük bir kısmıyla verir.
Evet. Llama 4 Maverick, ticari kullanıma izin veren Llama 3.1 uyumlu lisans altında yayınlanmıştır. Ürünler oluşturabilir, hizmetler dağıtabilir ve belirli iş ihtiyaçlarınız için modeli ince ayarlayabilirsiniz. Lisans, çok büyük ölçekli dağıtımlar için kullanım eşikleri içerir, bu yüzden uygulamanız yüz milyonlarca aylık aktif kullanıcıya hizmet ediyorsa tam şartları inceleyin.
Llama 4 Maverick, görüntü anlamanın ayrı bir görüntü kodlayıcı olarak eklenmesi yerine baştan sona modele yerleşik olduğu anlamına gelen erken kaynaşma mimarisi kullanır. Metni ve görüntüleri birleşik bir akışta işler, her iki modda doğal akıl yürütme sağlar. MMMU'da %73.4 puan alarak, grafikleri, diyagramları, ekran görüntülerini ve belgeleri anlamayı gerektiren görevlerde güçlü performans gösterir.
AWS, Google Cloud, Azure ve Together AI, Fireworks ve Groq gibi özelleşmiş çıkarım platformları dahil olmak üzere birkaç bulut sağlayıcısı, Llama 4 Maverick'e barındırılan API erişimi sunar. vLLM veya TGI gibi çerçeveleri kullanarak kendi kendinize de barındırabilirsiniz. Hızlı deneme için, bu sitedeki sohbet arayüzü, kurulum gerektirmeden Llama 4 Maverick'i varsayılan model olarak çalıştırır.
Llama 4 Ailesi
Tam Llama 4 serisini keşfet
Maverick, Meta'nın amiral gemisi açık modelidir. Scout ile karşılaştırın ve diğer sınır modelleriyle nasıl sıralandığını görün.
Başlangıç
Llama 4 Maverick'i denemeye hazır mısınız?
Ücretsiz olarak anında sohbet etmeye başlayın. Maverick bu sitede varsayılan model - kurulum gerekmez.