Modèles Llama 4
Deux modèles, une famille - du long contexte à la qualité de pointe
La famille Llama 4 comprend deux modèles MoE : Scout pour un contexte massif (10M de tokens) et Maverick pour une qualité maximale (128 experts, 400B de paramètres). Les deux partagent 17B de paramètres actifs par token et un support multimodal natif.
Tous les modèles
Choisissez le bon Llama 4 pour votre cas d'usage
Scout et Maverick sont optimisés pour des scénarios différents. Scout excelle dans les tâches long contexte, Maverick dans la qualité maximale.
Llama 4 Scout
Fenêtre de contexte de 10M - le spécialiste du long contexte
109B de paramètres au total répartis sur 16 experts avec 17B actifs par token. Sa caractéristique phare est sa fenêtre de contexte de 10 millions de tokens - la plus longue de tous les modèles ouverts disponibles.
Choisissez Scout lorsque vous devez traiter des bases de code entières, des ensembles de recherche multi-documents ou de très longs historiques de conversation en un seul appel.
Llama 4 Maverick
128 experts, 400B de paramètres - le modèle phare de qualité
400B de paramètres au total répartis sur 128 experts avec 17B actifs par token. Surpasse GPT-4o sur les benchmarks clés. Le modèle de chat par défaut sur ce site.
Choisissez Maverick lorsque vous avez besoin d'une qualité maximale pour le raisonnement, la programmation, l'analyse multimodale et les tâches complexes.
Long contexte
Llama 4 Scout
109B au total, 17B actifs, 16 experts. Fenêtre de contexte de 10M de tokens.
Idéal pour : bases de code entières, analyse multi-documents, longs articles de recherche, conversations étendues.
Modèle phare
Llama 4 Maverick
400B au total, 17B actifs, 128 experts. Surpasse GPT-4o sur les benchmarks.
Idéal pour : raisonnement complexe, génération de code, tâches multimodales, synthèse de recherche.
Capacités communes
Ce que les deux modèles Llama 4 peuvent faire
Scout et Maverick partagent un ensemble commun de capacités basées sur l'architecture MoE de Meta.
Multimodal natif
Les deux modèles traitent texte et images nativement avec une architecture early fusion. Aucun encodeur ou pipeline séparé nécessaire.
Efficacité MoE
Les deux n'activent que 17B de paramètres par token. Scout utilise 16 experts (109B au total), Maverick utilise 128 experts (400B au total).
Appel de fonctions
L'appel de fonctions intégré aux deux modèles permet des workflows agentiques. Aucun fine-tuning requis pour l'utilisation d'outils.
Contexte étendu
Scout : 10M de tokens. Maverick : 1M de tokens. Les deux dépassent largement les limites de la génération précédente.
Multilingue
Solide support multilingue sur les deux modèles pour les applications internationales.
Poids ouverts
Les deux modèles sont entièrement open-weight sous la licence compatible Llama 3.1. Déployez où vous voulez, modifiez librement.
Guide de sélection rapide
Quel modèle choisir ?
Associez votre cas d'usage principal à la bonne variante Llama 4.
Choisissez Scout quand
- Vous devez traiter de très longs documents (10M de tokens)
- Analyse de base de code entière sur des centaines de fichiers
- Recherche et synthèse multi-documents
- Historiques de conversation étendus
- Besoins en mémoire réduits (109B vs 400B au total)
Choisissez Maverick quand
- La qualité maximale est la priorité
- Raisonnement complexe et tâches scientifiques
- Génération et débogage de code
- Analyse multimodale (captures d'écran, diagrammes)
- Tâches où la performance sur les benchmarks compte le plus
Performance
Comparaison complète des benchmarks
Scout optimise la longueur de contexte, Maverick la qualité brute. Les deux offrent de solides performances par rapport à leurs objectifs de conception.
Le choix entre Scout et Maverick dépend de votre besoin principal : un contexte massif ou une qualité maximale. Voici comment ils se comparent sur les benchmarks clés.
Maverick : 80,5% MMLU Pro, 73,4% MMMU, surpasse GPT-4o en programmation
Scout : contexte de 10M de tokens, 95%+ de récupération à 8M de tokens
Les deux : 17B de paramètres actifs, multimodal natif, appel de fonctions
Les deux : open-weight sous licence compatible Llama 3.1
Comparaison complète
Scout vs Maverick côte à côte
Résultats complets des benchmarks en raisonnement, programmation, multimodal et métriques de déploiement.
| Benchmark | Maverick 128 experts Modèle phare | Scout 16 experts Long contexte |
|---|---|---|
MMLU Pro Connaissances et raisonnement | 80.5% | 74.3% |
GPQA Diamond Connaissances scientifiques | 69.8% | 57.2% |
LiveCodeBench v5 Programmation | 43.4% | 32.8% |
MMMU Multimodal | 73.4% | 69.4% |
Context Window Tokens max | 1M | 10M |
Total Parameters Taille du modèle | 400B | 109B |
Active Parameters Par token | 17B | 17B |
Number of Experts Routage MoE | 128 | 16 |
Données issues de la fiche officielle de Meta et d'évaluations indépendantes.
Scout
Scout : quand la longueur de contexte est primordiale
La fenêtre de contexte de 10M de tokens de Scout est inégalée. Il peut traiter des bases de code entières, des ensembles de recherche multi-documents et des heures de transcriptions en un seul appel. Si votre tâche implique de très longues entrées, Scout est le choix évident.
- Contexte de 10M de tokens - le plus long de tous les modèles ouverts
- 95%+ de précision de récupération jusqu'à 8M de tokens
- 109B de paramètres au total répartis sur 16 experts
Maverick
Maverick : quand la qualité est la priorité
L'architecture à 128 experts de Maverick offre des performances de classe mondiale. Il surpasse GPT-4o sur les benchmarks clés et est le modèle par défaut sur ce site pour une bonne raison - il gère avec aisance le raisonnement complexe, la programmation et les tâches multimodales.
- 80,5% MMLU Pro - connaissances et raisonnement de pointe
- Surpasse GPT-4o sur les benchmarks de programmation
- 400B de paramètres au total répartis sur 128 experts
Essayer maintenant
Commencez à discuter avec Llama 4
Essayez les deux modèles instantanément via notre interface de chat.
Télécharger
Obtenir les poids du modèle
Téléchargez les poids officiels pour l'une ou l'autre variante de Llama 4.
Famille Llama 4
Explorez chaque modèle et comparez avec les concurrents
Plongez dans chaque variante de Llama 4 ou voyez comment elles se comparent aux autres modèles ouverts de pointe.
Commencer
Trouvez votre modèle Llama 4
Commencez à discuter gratuitement avec l'un ou l'autre modèle Llama 4, ou téléchargez les poids pour un déploiement local.