Llama 4 Maverick
400B de paramètres, 128 experts - le modèle ouvert le plus performant de Meta
Llama 4 Maverick est le modèle phare MoE de Meta. Avec 400B de paramètres au total routés à travers 128 experts et seulement 17B actifs par token, il offre des performances de pointe qui surpassent GPT-4o sur les benchmarks clés tout en restant entièrement open-weight.
Variantes du modèle
Modèles instruction-tuned et de base
Choisissez entre la variante instruction-tuned optimisée pour le chat et les tâches complexes, ou le modèle de base pour le fine-tuning et la recherche.
Architecture MoE à 128 experts
400B de paramètres au total, 17B actifs par token
Maverick passe à 128 experts contre 16 pour Scout, intégrant 400B de paramètres au total tout en conservant la même empreinte de 17B de paramètres actifs par token. Cela lui confère des capacités nettement supérieures en raisonnement, programmation et multimodal.
Le modèle de chat par défaut sur ce site. Idéal pour les tâches exigeant une qualité maximale : raisonnement complexe, génération de code, analyse multimodale et synthèse de recherche.
Instruction-tuned
Maverick Instruct
Optimisé pour l'IA conversationnelle, le raisonnement complexe et la génération de code
Fine-tuné avec RLHF pour le suivi d'instructions et le dialogue multi-tours
Pré-entraîné
Maverick Base
Modèle MoE de base pour le fine-tuning et les applications spécialisées
Pré-entraîné sur des données multimodales diversifiées avec routage à 128 experts
Capacités
Des performances de pointe pour un modèle open-weight
Llama 4 Maverick combine l'efficacité MoE à 128 experts avec un raisonnement avancé, une programmation solide et une compréhension multimodale native - le tout avec 17B de paramètres actifs par token.
MoE à 128 experts
Route chaque token vers des experts spécialisés parmi un pool de 128. 400B de paramètres au total offrent une qualité de pointe au coût d'inférence de 17B par token.
Raisonnement avancé
Performances solides sur MMLU Pro (80,5%) et GPQA Diamond (69,8%). Compétitif avec les modèles propriétaires sur les tâches de raisonnement complexe.
Génération de code
Surpasse GPT-4o sur les benchmarks de programmation. L'appel de fonctions natif permet des workflows agentiques et l'exécution autonome de code.
Contexte de 1M de tokens
Traitez de longs documents, des bases de code et des conversations étendues. Suffisant pour la plupart des cas d'usage en production.
Multimodal natif
L'architecture early fusion traite texte et images ensemble nativement. Analysez captures d'écran, diagrammes et documents en parallèle du texte.
Multilingue
Performances solides dans de nombreuses langues. Conçu pour les applications internationales avec compréhension du contexte culturel.
Points clés
Pourquoi Maverick se démarque
Maverick est le premier modèle open-weight à surpasser GPT-4o de manière constante sur plusieurs catégories de benchmarks.
Résultats phares des benchmarks
- MMLU Pro 80,5% - compétitif avec les modèles propriétaires de pointe
- GPQA Diamond 69,8% - solide raisonnement scientifique
- MMMU 73,4% - excellente compréhension multimodale
- Surpasse GPT-4o sur les benchmarks de programmation
- ELO Arena compétitif avec les modèles de premier rang
Spécifications techniques
- 400B de paramètres au total, 17B actifs par token
- 128 experts dans l'architecture MoE
- Fenêtre de contexte de 1M de tokens
- Multimodal natif (texte + image)
- Licence compatible Llama 3.1
Performance
Qualité de pointe pour un modèle MoE open-weight
Llama 4 Maverick atteint 80,5% sur MMLU Pro et 73,4% sur MMMU, surpassant GPT-4o sur plusieurs benchmarks tout en n'activant que 17B de paramètres par token.
Maverick démontre que les modèles open-weight peuvent rivaliser avec les meilleures offres propriétaires. Son architecture à 128 experts offre une excellence constante en raisonnement, programmation et tâches multimodales.
MMLU Pro 80,5% - connaissances et raisonnement de pointe
GPQA Diamond 69,8% - solide raisonnement scientifique
MMMU 73,4% - excellente compréhension multimodale
Surpasse GPT-4o sur les benchmarks de programmation
17B de paramètres actifs sur 400B au total (128 experts)
Comparaison des benchmarks
Maverick vs Scout et la génération précédente
L'architecture à 128 experts de Maverick apporte des améliorations significatives par rapport à Scout et Llama 3.1 dans toutes les catégories.
| Benchmark | Llama 4 Maverick 128 experts En vedette | Llama 4 Scout 16 experts | Llama 3.1 70B Dense | GPT-4o Propriétaire |
|---|---|---|---|---|
MMLU Pro Connaissances et raisonnement | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond Connaissances scientifiques | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 Programmation | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU Multimodal | 73.4% | 69.4% | - | 69.1% |
Context Window Tokens max | 1M | 10M | 128K | 128K |
Total Parameters Taille du modèle | 400B | 109B | 70B | - |
Active Parameters Par token | 17B | 17B | 70B | - |
Données issues de la fiche officielle de Meta et d'évaluations indépendantes.
Échelle à 128 experts
400B de capacité au coût d'inférence de 17B
L'architecture MoE à 128 experts de Maverick représente une montée en échelle significative par rapport aux 16 experts de Scout. Chaque token est routé vers des experts spécialisés, donnant au modèle accès à 400B de paramètres de connaissances tout en n'activant que 17B par passe forward.
- 128 experts vs 16 pour Scout - 8x plus de spécialisation
- 400B de paramètres au total vs 109B pour Scout
- Même coût de 17B de paramètres actifs par token que Scout
Multimodal
Compréhension native du texte et des images
Maverick utilise une architecture early fusion pour traiter texte et images ensemble nativement. La compréhension visuelle est intégrée au modèle dès sa conception, et non ajoutée comme un module séparé.
- 73,4% sur le benchmark multimodal MMMU
- Architecture early fusion pour un traitement multimodal natif
- Analysez captures d'écran, diagrammes, graphiques et documents
Commencer
Essayez Llama 4 Maverick maintenant
Commencez à discuter instantanément ou téléchargez les poids pour un déploiement auto-hébergé.
Télécharger et déployer
Déploiement auto-hébergé
Téléchargez les poids officiels du modèle pour un déploiement sur votre infrastructure.
Famille Llama 4
Explorez toute la gamme Llama 4
Maverick est le modèle phare ouvert de Meta. Comparez-le avec Scout et voyez comment il se positionne face aux autres modèles de pointe.
Commencer
Prêt à essayer Llama 4 Maverick ?
Commencez à discuter gratuitement et instantanément. Maverick est le modèle par défaut sur ce site - aucune configuration requise.