Llama 4 Maverick

400B de paramètres, 128 experts - le modèle ouvert le plus performant de Meta

Llama 4 Maverick est le modèle phare MoE de Meta. Avec 400B de paramètres au total routés à travers 128 experts et seulement 17B actifs par token, il offre des performances de pointe qui surpassent GPT-4o sur les benchmarks clés tout en restant entièrement open-weight.

Variantes du modèle

Modèles instruction-tuned et de base

Choisissez entre la variante instruction-tuned optimisée pour le chat et les tâches complexes, ou le modèle de base pour le fine-tuning et la recherche.

Architecture MoE à 128 experts

400B de paramètres au total, 17B actifs par token

Maverick passe à 128 experts contre 16 pour Scout, intégrant 400B de paramètres au total tout en conservant la même empreinte de 17B de paramètres actifs par token. Cela lui confère des capacités nettement supérieures en raisonnement, programmation et multimodal.

Le modèle de chat par défaut sur ce site. Idéal pour les tâches exigeant une qualité maximale : raisonnement complexe, génération de code, analyse multimodale et synthèse de recherche.

Instruction-tuned

Maverick Instruct

Optimisé pour l'IA conversationnelle, le raisonnement complexe et la génération de code

Fine-tuné avec RLHF pour le suivi d'instructions et le dialogue multi-tours

Disponible maintenant

Pré-entraîné

Maverick Base

Modèle MoE de base pour le fine-tuning et les applications spécialisées

Pré-entraîné sur des données multimodales diversifiées avec routage à 128 experts

Disponible maintenant

Capacités

Des performances de pointe pour un modèle open-weight

Llama 4 Maverick combine l'efficacité MoE à 128 experts avec un raisonnement avancé, une programmation solide et une compréhension multimodale native - le tout avec 17B de paramètres actifs par token.

MoE à 128 experts

Route chaque token vers des experts spécialisés parmi un pool de 128. 400B de paramètres au total offrent une qualité de pointe au coût d'inférence de 17B par token.

Raisonnement avancé

Performances solides sur MMLU Pro (80,5%) et GPQA Diamond (69,8%). Compétitif avec les modèles propriétaires sur les tâches de raisonnement complexe.

Génération de code

Surpasse GPT-4o sur les benchmarks de programmation. L'appel de fonctions natif permet des workflows agentiques et l'exécution autonome de code.

Contexte de 1M de tokens

Traitez de longs documents, des bases de code et des conversations étendues. Suffisant pour la plupart des cas d'usage en production.

Multimodal natif

L'architecture early fusion traite texte et images ensemble nativement. Analysez captures d'écran, diagrammes et documents en parallèle du texte.

Multilingue

Performances solides dans de nombreuses langues. Conçu pour les applications internationales avec compréhension du contexte culturel.

Points clés

Pourquoi Maverick se démarque

Maverick est le premier modèle open-weight à surpasser GPT-4o de manière constante sur plusieurs catégories de benchmarks.

Résultats phares des benchmarks

  • MMLU Pro 80,5% - compétitif avec les modèles propriétaires de pointe
  • GPQA Diamond 69,8% - solide raisonnement scientifique
  • MMMU 73,4% - excellente compréhension multimodale
  • Surpasse GPT-4o sur les benchmarks de programmation
  • ELO Arena compétitif avec les modèles de premier rang

Spécifications techniques

  • 400B de paramètres au total, 17B actifs par token
  • 128 experts dans l'architecture MoE
  • Fenêtre de contexte de 1M de tokens
  • Multimodal natif (texte + image)
  • Licence compatible Llama 3.1

Performance

Qualité de pointe pour un modèle MoE open-weight

Llama 4 Maverick atteint 80,5% sur MMLU Pro et 73,4% sur MMMU, surpassant GPT-4o sur plusieurs benchmarks tout en n'activant que 17B de paramètres par token.

Maverick démontre que les modèles open-weight peuvent rivaliser avec les meilleures offres propriétaires. Son architecture à 128 experts offre une excellence constante en raisonnement, programmation et tâches multimodales.

Graphique comparatif des performances de Llama 4 Maverick

MMLU Pro 80,5% - connaissances et raisonnement de pointe

GPQA Diamond 69,8% - solide raisonnement scientifique

MMMU 73,4% - excellente compréhension multimodale

Surpasse GPT-4o sur les benchmarks de programmation

17B de paramètres actifs sur 400B au total (128 experts)

Comparaison des benchmarks

Maverick vs Scout et la génération précédente

L'architecture à 128 experts de Maverick apporte des améliorations significatives par rapport à Scout et Llama 3.1 dans toutes les catégories.

Benchmark
Llama 4 Maverick
128 experts
En vedette
Llama 4 Scout
16 experts
Llama 3.1 70B
Dense
GPT-4o
Propriétaire
MMLU Pro
Connaissances et raisonnement
80.5%74.3%66.4%78.4%
GPQA Diamond
Connaissances scientifiques
69.8%57.2%46.7%53.6%
LiveCodeBench v5
Programmation
43.4%32.8%28.5%37.0%
MMMU
Multimodal
73.4%69.4%-69.1%
Context Window
Tokens max
1M10M128K128K
Total Parameters
Taille du modèle
400B109B70B-
Active Parameters
Par token
17B17B70B-

Données issues de la fiche officielle de Meta et d'évaluations indépendantes.

Échelle à 128 experts

400B de capacité au coût d'inférence de 17B

L'architecture MoE à 128 experts de Maverick représente une montée en échelle significative par rapport aux 16 experts de Scout. Chaque token est routé vers des experts spécialisés, donnant au modèle accès à 400B de paramètres de connaissances tout en n'activant que 17B par passe forward.

  • 128 experts vs 16 pour Scout - 8x plus de spécialisation
  • 400B de paramètres au total vs 109B pour Scout
  • Même coût de 17B de paramètres actifs par token que Scout
Llama 4 Maverick 128-expert MoE architecture

Multimodal

Compréhension native du texte et des images

Maverick utilise une architecture early fusion pour traiter texte et images ensemble nativement. La compréhension visuelle est intégrée au modèle dès sa conception, et non ajoutée comme un module séparé.

  • 73,4% sur le benchmark multimodal MMMU
  • Architecture early fusion pour un traitement multimodal natif
  • Analysez captures d'écran, diagrammes, graphiques et documents
Llama 4 Maverick multimodal capabilities

Commencer

Essayez Llama 4 Maverick maintenant

Commencez à discuter instantanément ou téléchargez les poids pour un déploiement auto-hébergé.

Télécharger et déployer

Déploiement auto-hébergé

Téléchargez les poids officiels du modèle pour un déploiement sur votre infrastructure.

Famille Llama 4

Explorez toute la gamme Llama 4

Maverick est le modèle phare ouvert de Meta. Comparez-le avec Scout et voyez comment il se positionne face aux autres modèles de pointe.

Llama 4 Scout

Spécialiste du contexte de 10M

Comparer

Tous les modèles Llama 4

Vue d'ensemble complète de la famille

Voir tout

Llama 4 vs Kimi K2.6

Maverick vs le modèle 1T de Moonshot

Comparer

Llama 4 vs Qwen 3.6

Meta vs le dernier modèle d'Alibaba

Comparer

Llama 4 vs DeepSeek V4

Duel d'architectures MoE

Comparer

Llama 4 vs MiniMax M2.7

Échelle vs efficacité des coûts

Comparer

Commencer

Prêt à essayer Llama 4 Maverick ?

Commencez à discuter gratuitement et instantanément. Maverick est le modèle par défaut sur ce site - aucune configuration requise.