Llama 4 Maverick

400B Parameter, 128 Experten - Metas leistungsfähigstes offenes Modell

Llama 4 Maverick ist Metas Flaggschiff-MoE-Modell. Mit 400B Gesamtparametern, geroutet durch 128 Experten bei nur 17B aktiv pro Token, liefert es Frontier-Leistung, die GPT-4o in wichtigen Benchmarks schlägt - und bleibt dabei vollständig Open-Weight.

Modellvarianten

Instruction-tuned und Basismodelle

Wähle zwischen der Instruction-tuned-Variante, optimiert für Chat und komplexe Aufgaben, oder dem Basismodell für Feinabstimmung und Forschung.

128-Experten-MoE-Architektur

400B Gesamtparameter, 17B aktiv pro Token

Maverick skaliert auf 128 Experten gegenüber Scouts 16 und packt 400B Gesamtparameter bei gleichem 17B-Footprint pro Token. Das ergibt deutlich stärkere Reasoning-, Coding- und multimodale Fähigkeiten.

Das Standard-Chatmodell auf dieser Seite. Am besten für Aufgaben, die maximale Qualität erfordern: komplexes Reasoning, Code-Generierung, multimodale Analyse und Forschungssynthese.

Instruction-tuned

Maverick Instruct

Optimiert für konversationelle KI, komplexes Reasoning und Code-Generierung

Mit RLHF feinabgestimmt für Instruktionsbefolgung und Multi-Turn-Dialog

Jetzt verfügbar

Vortrainiert

Maverick Base

MoE-Basismodell für Feinabstimmung und spezialisierte Anwendungen

Vortrainiert auf vielfältigen multimodalen Daten mit 128-Experten-Routing

Jetzt verfügbar

Fähigkeiten

Frontier-Leistung aus einem Open-Weight-Modell

Llama 4 Maverick kombiniert 128-Experten-MoE-Effizienz mit fortgeschrittenem Reasoning, starkem Coding und nativem multimodalem Verständnis - alles bei 17B aktiven Parametern pro Token.

128-Experten-MoE

Routet jedes Token durch spezialisierte Experten aus einem Pool von 128. 400B Gesamtparameter liefern Frontier-Qualität bei 17B Inferenzkosten pro Token.

Fortgeschrittenes Reasoning

Starke Leistung bei MMLU Pro (80,5%) und GPQA Diamond (69,8%). Wettbewerbsfähig mit proprietären Modellen bei komplexen Reasoning-Aufgaben.

Code-Generierung

Übertrifft GPT-4o in Coding-Benchmarks. Natives Function Calling ermöglicht agentische Workflows und autonome Code-Ausführung.

1M-Token-Kontext

Verarbeite lange Dokumente, Codebasen und ausgedehnte Gespräche. Ausreichend für die meisten Produktions-Anwendungsfälle.

Nativ multimodal

Early-Fusion-Architektur verarbeitet Text und Bilder gemeinsam nativ. Analysiere Screenshots, Diagramme und Dokumente zusammen mit Text.

Mehrsprachig

Starke Leistung in mehreren Sprachen. Gebaut für globale Anwendungen mit kulturellem Kontextverständnis.

Wichtige Highlights

Warum Maverick heraussticht

Maverick ist das erste Open-Weight-Modell, das GPT-4o konsistent über mehrere Benchmark-Kategorien hinweg schlägt.

Benchmark-Highlights

  • MMLU Pro 80,5% - wettbewerbsfähig mit proprietären Frontier-Modellen
  • GPQA Diamond 69,8% - starkes wissenschaftliches Reasoning
  • MMMU 73,4% - exzellentes multimodales Verständnis
  • Übertrifft GPT-4o in Coding-Benchmarks
  • Arena ELO wettbewerbsfähig mit Top-Tier-Modellen

Technische Spezifikationen

  • 400B Gesamtparameter, 17B aktiv pro Token
  • 128 Experten in MoE-Architektur
  • 1M-Token-Kontextfenster
  • Nativ multimodal (Text + Bild)
  • Llama 3.1 kompatible Lizenz

Leistung

Frontier-Qualität aus einem Open-Weight-MoE-Modell

Llama 4 Maverick erreicht 80,5% bei MMLU Pro und 73,4% bei MMMU, übertrifft GPT-4o in mehreren Benchmarks und aktiviert dabei nur 17B Parameter pro Token.

Maverick zeigt, dass Open-Weight-Modelle mit den besten proprietären Angeboten mithalten können. Seine 128-Experten-Architektur liefert konsistente Spitzenleistung über Reasoning, Coding und multimodale Aufgaben hinweg.

Llama 4 Maverick Leistungsvergleichsdiagramm

MMLU Pro 80,5% - Frontier-Wissen und Reasoning

GPQA Diamond 69,8% - starkes wissenschaftliches Reasoning

MMMU 73,4% - exzellentes multimodales Verständnis

Übertrifft GPT-4o in Coding-Benchmarks

17B aktive Parameter aus 400B gesamt (128 Experten)

Benchmark-Vergleich

Maverick vs Scout und vorherige Generation

Mavericks 128-Experten-Architektur liefert deutliche Verbesserungen gegenüber Scout und Llama 3.1 in allen Kategorien.

Benchmark
Llama 4 Maverick
128 Experten
Vorgestellt
Llama 4 Scout
16 Experten
Llama 3.1 70B
Dense
GPT-4o
Proprietär
MMLU Pro
Wissen & Reasoning
80.5%74.3%66.4%78.4%
GPQA Diamond
Wissenschaftliches Wissen
69.8%57.2%46.7%53.6%
LiveCodeBench v5
Coding
43.4%32.8%28.5%37.0%
MMMU
Multimodal
73.4%69.4%-69.1%
Context Window
Max. Token
1M10M128K128K
Total Parameters
Modellgröße
400B109B70B-
Active Parameters
Pro Token
17B17B70B-

Daten aus Metas offiziellem Model Card und unabhängigen Evaluierungen.

128-Experten-Skalierung

400B Kapazität bei 17B Inferenzkosten

Mavericks 128-Experten-MoE-Architektur ist eine deutliche Skalierung gegenüber Scouts 16 Experten. Jedes Token wird an spezialisierte Experten geroutet, wodurch das Modell auf 400B Parameter an Wissen zugreifen kann, während nur 17B pro Forward Pass aktiviert werden.

  • 128 Experten vs Scouts 16 - 8-fach mehr Spezialisierung
  • 400B Gesamtparameter vs Scouts 109B
  • Gleiche 17B aktive Parameterkosten pro Token wie Scout
Llama 4 Maverick 128-expert MoE architecture

Multimodal

Natives Text- und Bildverständnis

Maverick nutzt Early-Fusion-Architektur, um Text und Bilder gemeinsam nativ zu verarbeiten. Das bedeutet, visuelles Verständnis ist von Grund auf ins Modell eingebaut - nicht als separates Modul nachgerüstet.

  • 73,4% beim MMMU Multimodal-Benchmark
  • Early-Fusion-Architektur für native multimodale Verarbeitung
  • Analysiere Screenshots, Diagramme, Charts und Dokumente
Llama 4 Maverick multimodal capabilities

Loslegen

Llama 4 Maverick jetzt ausprobieren

Starte sofort einen Chat oder lade Gewichte für selbstgehostetes Deployment herunter.

Herunterladen & Deployen

Selbstgehostetes Deployment

Lade offizielle Modellgewichte für das Deployment auf deiner eigenen Infrastruktur herunter.

Llama-4-Familie

Die gesamte Llama-4-Reihe entdecken

Maverick ist Metas Flaggschiff unter den offenen Modellen. Vergleiche es mit Scout und sieh, wie es sich gegen andere Frontier-Modelle schlägt.

Llama 4 Scout

10M-Kontextfenster-Spezialist

Vergleichen

Alle Llama-4-Modelle

Komplette Familienübersicht

Alle ansehen

Llama 4 vs Kimi K2.6

Maverick vs Moonshots 1T-Modell

Vergleichen

Llama 4 vs Qwen 3.6

Meta vs Alibabas neuestes Modell

Vergleichen

Llama 4 vs DeepSeek V4

MoE-Architektur-Duell

Vergleichen

Llama 4 vs MiniMax M2.7

Skalierung vs Kosteneffizienz

Vergleichen

Loslegen

Bereit, Llama 4 Maverick auszuprobieren?

Starte sofort einen kostenlosen Chat. Maverick ist das Standardmodell auf dieser Seite - kein Setup nötig.