Llama 4 Maverick
400B Parameter, 128 Experten - Metas leistungsfähigstes offenes Modell
Llama 4 Maverick ist Metas Flaggschiff-MoE-Modell. Mit 400B Gesamtparametern, geroutet durch 128 Experten bei nur 17B aktiv pro Token, liefert es Frontier-Leistung, die GPT-4o in wichtigen Benchmarks schlägt - und bleibt dabei vollständig Open-Weight.
Modellvarianten
Instruction-tuned und Basismodelle
Wähle zwischen der Instruction-tuned-Variante, optimiert für Chat und komplexe Aufgaben, oder dem Basismodell für Feinabstimmung und Forschung.
128-Experten-MoE-Architektur
400B Gesamtparameter, 17B aktiv pro Token
Maverick skaliert auf 128 Experten gegenüber Scouts 16 und packt 400B Gesamtparameter bei gleichem 17B-Footprint pro Token. Das ergibt deutlich stärkere Reasoning-, Coding- und multimodale Fähigkeiten.
Das Standard-Chatmodell auf dieser Seite. Am besten für Aufgaben, die maximale Qualität erfordern: komplexes Reasoning, Code-Generierung, multimodale Analyse und Forschungssynthese.
Instruction-tuned
Maverick Instruct
Optimiert für konversationelle KI, komplexes Reasoning und Code-Generierung
Mit RLHF feinabgestimmt für Instruktionsbefolgung und Multi-Turn-Dialog
Vortrainiert
Maverick Base
MoE-Basismodell für Feinabstimmung und spezialisierte Anwendungen
Vortrainiert auf vielfältigen multimodalen Daten mit 128-Experten-Routing
Fähigkeiten
Frontier-Leistung aus einem Open-Weight-Modell
Llama 4 Maverick kombiniert 128-Experten-MoE-Effizienz mit fortgeschrittenem Reasoning, starkem Coding und nativem multimodalem Verständnis - alles bei 17B aktiven Parametern pro Token.
128-Experten-MoE
Routet jedes Token durch spezialisierte Experten aus einem Pool von 128. 400B Gesamtparameter liefern Frontier-Qualität bei 17B Inferenzkosten pro Token.
Fortgeschrittenes Reasoning
Starke Leistung bei MMLU Pro (80,5%) und GPQA Diamond (69,8%). Wettbewerbsfähig mit proprietären Modellen bei komplexen Reasoning-Aufgaben.
Code-Generierung
Übertrifft GPT-4o in Coding-Benchmarks. Natives Function Calling ermöglicht agentische Workflows und autonome Code-Ausführung.
1M-Token-Kontext
Verarbeite lange Dokumente, Codebasen und ausgedehnte Gespräche. Ausreichend für die meisten Produktions-Anwendungsfälle.
Nativ multimodal
Early-Fusion-Architektur verarbeitet Text und Bilder gemeinsam nativ. Analysiere Screenshots, Diagramme und Dokumente zusammen mit Text.
Mehrsprachig
Starke Leistung in mehreren Sprachen. Gebaut für globale Anwendungen mit kulturellem Kontextverständnis.
Wichtige Highlights
Warum Maverick heraussticht
Maverick ist das erste Open-Weight-Modell, das GPT-4o konsistent über mehrere Benchmark-Kategorien hinweg schlägt.
Benchmark-Highlights
- MMLU Pro 80,5% - wettbewerbsfähig mit proprietären Frontier-Modellen
- GPQA Diamond 69,8% - starkes wissenschaftliches Reasoning
- MMMU 73,4% - exzellentes multimodales Verständnis
- Übertrifft GPT-4o in Coding-Benchmarks
- Arena ELO wettbewerbsfähig mit Top-Tier-Modellen
Technische Spezifikationen
- 400B Gesamtparameter, 17B aktiv pro Token
- 128 Experten in MoE-Architektur
- 1M-Token-Kontextfenster
- Nativ multimodal (Text + Bild)
- Llama 3.1 kompatible Lizenz
Leistung
Frontier-Qualität aus einem Open-Weight-MoE-Modell
Llama 4 Maverick erreicht 80,5% bei MMLU Pro und 73,4% bei MMMU, übertrifft GPT-4o in mehreren Benchmarks und aktiviert dabei nur 17B Parameter pro Token.
Maverick zeigt, dass Open-Weight-Modelle mit den besten proprietären Angeboten mithalten können. Seine 128-Experten-Architektur liefert konsistente Spitzenleistung über Reasoning, Coding und multimodale Aufgaben hinweg.
MMLU Pro 80,5% - Frontier-Wissen und Reasoning
GPQA Diamond 69,8% - starkes wissenschaftliches Reasoning
MMMU 73,4% - exzellentes multimodales Verständnis
Übertrifft GPT-4o in Coding-Benchmarks
17B aktive Parameter aus 400B gesamt (128 Experten)
Benchmark-Vergleich
Maverick vs Scout und vorherige Generation
Mavericks 128-Experten-Architektur liefert deutliche Verbesserungen gegenüber Scout und Llama 3.1 in allen Kategorien.
| Benchmark | Llama 4 Maverick 128 Experten Vorgestellt | Llama 4 Scout 16 Experten | Llama 3.1 70B Dense | GPT-4o Proprietär |
|---|---|---|---|---|
MMLU Pro Wissen & Reasoning | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond Wissenschaftliches Wissen | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 Coding | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU Multimodal | 73.4% | 69.4% | - | 69.1% |
Context Window Max. Token | 1M | 10M | 128K | 128K |
Total Parameters Modellgröße | 400B | 109B | 70B | - |
Active Parameters Pro Token | 17B | 17B | 70B | - |
Daten aus Metas offiziellem Model Card und unabhängigen Evaluierungen.
128-Experten-Skalierung
400B Kapazität bei 17B Inferenzkosten
Mavericks 128-Experten-MoE-Architektur ist eine deutliche Skalierung gegenüber Scouts 16 Experten. Jedes Token wird an spezialisierte Experten geroutet, wodurch das Modell auf 400B Parameter an Wissen zugreifen kann, während nur 17B pro Forward Pass aktiviert werden.
- 128 Experten vs Scouts 16 - 8-fach mehr Spezialisierung
- 400B Gesamtparameter vs Scouts 109B
- Gleiche 17B aktive Parameterkosten pro Token wie Scout
Multimodal
Natives Text- und Bildverständnis
Maverick nutzt Early-Fusion-Architektur, um Text und Bilder gemeinsam nativ zu verarbeiten. Das bedeutet, visuelles Verständnis ist von Grund auf ins Modell eingebaut - nicht als separates Modul nachgerüstet.
- 73,4% beim MMMU Multimodal-Benchmark
- Early-Fusion-Architektur für native multimodale Verarbeitung
- Analysiere Screenshots, Diagramme, Charts und Dokumente
Loslegen
Llama 4 Maverick jetzt ausprobieren
Starte sofort einen Chat oder lade Gewichte für selbstgehostetes Deployment herunter.
Herunterladen & Deployen
Selbstgehostetes Deployment
Lade offizielle Modellgewichte für das Deployment auf deiner eigenen Infrastruktur herunter.
Llama-4-Familie
Die gesamte Llama-4-Reihe entdecken
Maverick ist Metas Flaggschiff unter den offenen Modellen. Vergleiche es mit Scout und sieh, wie es sich gegen andere Frontier-Modelle schlägt.
Loslegen
Bereit, Llama 4 Maverick auszuprobieren?
Starte sofort einen kostenlosen Chat. Maverick ist das Standardmodell auf dieser Seite - kein Setup nötig.