Modèles Llama 4

Deux modèles, une famille - du long contexte à la qualité de pointe

La famille Llama 4 comprend deux modèles MoE : Scout pour un contexte massif (10M de tokens) et Maverick pour une qualité maximale (128 experts, 400B de paramètres). Les deux partagent 17B de paramètres actifs par token et un support multimodal natif.

Tous les modèles

Choisissez le bon Llama 4 pour votre cas d'usage

Scout et Maverick sont optimisés pour des scénarios différents. Scout excelle dans les tâches long contexte, Maverick dans la qualité maximale.

Llama 4 Scout

Fenêtre de contexte de 10M - le spécialiste du long contexte

109B de paramètres au total répartis sur 16 experts avec 17B actifs par token. Sa caractéristique phare est sa fenêtre de contexte de 10 millions de tokens - la plus longue de tous les modèles ouverts disponibles.

Choisissez Scout lorsque vous devez traiter des bases de code entières, des ensembles de recherche multi-documents ou de très longs historiques de conversation en un seul appel.

Llama 4 Maverick

128 experts, 400B de paramètres - le modèle phare de qualité

400B de paramètres au total répartis sur 128 experts avec 17B actifs par token. Surpasse GPT-4o sur les benchmarks clés. Le modèle de chat par défaut sur ce site.

Choisissez Maverick lorsque vous avez besoin d'une qualité maximale pour le raisonnement, la programmation, l'analyse multimodale et les tâches complexes.

Long contexte

Llama 4 Scout

109B au total, 17B actifs, 16 experts. Fenêtre de contexte de 10M de tokens.

Idéal pour : bases de code entières, analyse multi-documents, longs articles de recherche, conversations étendues.

Disponible maintenant

Modèle phare

Llama 4 Maverick

400B au total, 17B actifs, 128 experts. Surpasse GPT-4o sur les benchmarks.

Idéal pour : raisonnement complexe, génération de code, tâches multimodales, synthèse de recherche.

Disponible maintenant

Capacités communes

Ce que les deux modèles Llama 4 peuvent faire

Scout et Maverick partagent un ensemble commun de capacités basées sur l'architecture MoE de Meta.

Multimodal natif

Les deux modèles traitent texte et images nativement avec une architecture early fusion. Aucun encodeur ou pipeline séparé nécessaire.

Efficacité MoE

Les deux n'activent que 17B de paramètres par token. Scout utilise 16 experts (109B au total), Maverick utilise 128 experts (400B au total).

Appel de fonctions

L'appel de fonctions intégré aux deux modèles permet des workflows agentiques. Aucun fine-tuning requis pour l'utilisation d'outils.

Contexte étendu

Scout : 10M de tokens. Maverick : 1M de tokens. Les deux dépassent largement les limites de la génération précédente.

Multilingue

Solide support multilingue sur les deux modèles pour les applications internationales.

Poids ouverts

Les deux modèles sont entièrement open-weight sous la licence compatible Llama 3.1. Déployez où vous voulez, modifiez librement.

Guide de sélection rapide

Quel modèle choisir ?

Associez votre cas d'usage principal à la bonne variante Llama 4.

Choisissez Scout quand

  • Vous devez traiter de très longs documents (10M de tokens)
  • Analyse de base de code entière sur des centaines de fichiers
  • Recherche et synthèse multi-documents
  • Historiques de conversation étendus
  • Besoins en mémoire réduits (109B vs 400B au total)

Choisissez Maverick quand

  • La qualité maximale est la priorité
  • Raisonnement complexe et tâches scientifiques
  • Génération et débogage de code
  • Analyse multimodale (captures d'écran, diagrammes)
  • Tâches où la performance sur les benchmarks compte le plus

Performance

Comparaison complète des benchmarks

Scout optimise la longueur de contexte, Maverick la qualité brute. Les deux offrent de solides performances par rapport à leurs objectifs de conception.

Le choix entre Scout et Maverick dépend de votre besoin principal : un contexte massif ou une qualité maximale. Voici comment ils se comparent sur les benchmarks clés.

Comparaison des performances de la famille Llama 4

Maverick : 80,5% MMLU Pro, 73,4% MMMU, surpasse GPT-4o en programmation

Scout : contexte de 10M de tokens, 95%+ de récupération à 8M de tokens

Les deux : 17B de paramètres actifs, multimodal natif, appel de fonctions

Les deux : open-weight sous licence compatible Llama 3.1

Comparaison complète

Scout vs Maverick côte à côte

Résultats complets des benchmarks en raisonnement, programmation, multimodal et métriques de déploiement.

Benchmark
Maverick
128 experts
Modèle phare
Scout
16 experts
Long contexte
MMLU Pro
Connaissances et raisonnement
80.5%74.3%
GPQA Diamond
Connaissances scientifiques
69.8%57.2%
LiveCodeBench v5
Programmation
43.4%32.8%
MMMU
Multimodal
73.4%69.4%
Context Window
Tokens max
1M10M
Total Parameters
Taille du modèle
400B109B
Active Parameters
Par token
17B17B
Number of Experts
Routage MoE
12816

Données issues de la fiche officielle de Meta et d'évaluations indépendantes.

Scout

Scout : quand la longueur de contexte est primordiale

La fenêtre de contexte de 10M de tokens de Scout est inégalée. Il peut traiter des bases de code entières, des ensembles de recherche multi-documents et des heures de transcriptions en un seul appel. Si votre tâche implique de très longues entrées, Scout est le choix évident.

  • Contexte de 10M de tokens - le plus long de tous les modèles ouverts
  • 95%+ de précision de récupération jusqu'à 8M de tokens
  • 109B de paramètres au total répartis sur 16 experts
Llama 4 Scout - long context specialist

Maverick

Maverick : quand la qualité est la priorité

L'architecture à 128 experts de Maverick offre des performances de classe mondiale. Il surpasse GPT-4o sur les benchmarks clés et est le modèle par défaut sur ce site pour une bonne raison - il gère avec aisance le raisonnement complexe, la programmation et les tâches multimodales.

  • 80,5% MMLU Pro - connaissances et raisonnement de pointe
  • Surpasse GPT-4o sur les benchmarks de programmation
  • 400B de paramètres au total répartis sur 128 experts
Llama 4 Maverick - frontier quality

Famille Llama 4

Explorez chaque modèle et comparez avec les concurrents

Plongez dans chaque variante de Llama 4 ou voyez comment elles se comparent aux autres modèles ouverts de pointe.

Llama 4 Scout

Spécialiste du contexte de 10M

Explorer

Llama 4 Maverick

Modèle phare à 128 experts

Explorer

Llama 4 vs Kimi K2.6

Meta vs Moonshot

Comparer

Llama 4 vs Qwen 3.6

Meta vs Alibaba

Comparer

Llama 4 vs DeepSeek V4

Duel d'architectures MoE

Comparer

Llama 4 vs MiniMax M2.7

Échelle vs efficacité

Comparer

Commencer

Trouvez votre modèle Llama 4

Commencez à discuter gratuitement avec l'un ou l'autre modèle Llama 4, ou téléchargez les poids pour un déploiement local.