Llama 4 Maverick

400B parámetros, 128 expertos: el modelo abierto más capaz de Meta

Llama 4 Maverick es el modelo insignia MoE de Meta. Con 400B parámetros totales enrutados a través de 128 expertos y solo 17B activos por token, ofrece rendimiento de frontera que supera a GPT-4o en benchmarks clave, manteniendo pesos completamente abiertos.

Variantes del modelo

Modelos ajustados por instrucciones y base

Elige entre la variante ajustada por instrucciones, optimizada para chat y tareas complejas, o el modelo base para ajuste fino e investigación.

Arquitectura MoE de 128 expertos

400B parámetros totales, 17B activos por token

Maverick escala a 128 expertos desde los 16 de Scout, alcanzando 400B parámetros totales mientras mantiene la misma huella de 17B activos por token. Esto le otorga capacidades significativamente superiores en razonamiento, programación y multimodalidad.

El modelo de chat predeterminado en este sitio. Ideal para tareas que requieren máxima calidad: razonamiento complejo, generación de código, análisis multimodal y síntesis de investigación.

Ajustado por instrucciones

Maverick Instruct

Optimizado para IA conversacional, razonamiento complejo y generación de código

Ajustado con RLHF para seguir instrucciones y diálogo multi-turno

Disponible ahora

Pre-entrenado

Maverick Base

Modelo MoE base para ajuste fino y aplicaciones especializadas

Pre-entrenado con datos multimodales diversos y enrutamiento de 128 expertos

Disponible ahora

Capacidades

Rendimiento de frontera en un modelo de pesos abiertos

Llama 4 Maverick combina la eficiencia MoE de 128 expertos con razonamiento avanzado, programación sólida y comprensión multimodal nativa, todo con 17B parámetros activos por token.

MoE de 128 expertos

Enruta cada token a expertos especializados de un pool de 128. 400B parámetros totales ofrecen calidad de frontera al coste de inferencia de 17B por token.

Razonamiento avanzado

Alto rendimiento en MMLU Pro (80.5%) y GPQA Diamond (69.8%). Competitivo con modelos propietarios en tareas de razonamiento complejo.

Generación de código

Supera a GPT-4o en benchmarks de programación. Las llamadas a funciones nativas permiten flujos de trabajo agénticos y ejecución autónoma de código.

Contexto de 1M tokens

Procesa documentos largos, repositorios y conversaciones extensas. Suficiente para la mayoría de casos de uso en producción.

Multimodal nativo

La arquitectura de fusión temprana procesa texto e imágenes juntos de forma nativa. Analiza capturas de pantalla, diagramas y documentos junto con texto.

Multilingüe

Alto rendimiento en múltiples idiomas. Diseñado para aplicaciones globales con comprensión del contexto cultural.

Puntos clave

Por qué Maverick destaca

Maverick es el primer modelo de pesos abiertos que supera consistentemente a GPT-4o en múltiples categorías de benchmarks.

Resultados destacados en benchmarks

  • MMLU Pro 80.5%: competitivo con modelos propietarios de frontera
  • GPQA Diamond 69.8%: sólido razonamiento científico
  • MMMU 73.4%: excelente comprensión multimodal
  • Supera a GPT-4o en benchmarks de programación
  • ELO en Arena competitivo con los modelos de primer nivel

Especificaciones técnicas

  • 400B parámetros totales, 17B activos por token
  • 128 expertos en arquitectura MoE
  • Ventana de contexto de 1M tokens
  • Multimodal nativo (texto + imagen)
  • Licencia compatible con Llama 3.1

Rendimiento

Calidad de frontera en un modelo MoE de pesos abiertos

Llama 4 Maverick alcanza 80.5% en MMLU Pro y 73.4% en MMMU, superando a GPT-4o en múltiples benchmarks mientras activa solo 17B parámetros por token.

Maverick demuestra que los modelos de pesos abiertos pueden competir con las mejores ofertas propietarias. Su arquitectura de 128 expertos ofrece excelencia consistente en razonamiento, programación y tareas multimodales.

Gráfico comparativo de rendimiento de Llama 4 Maverick

MMLU Pro 80.5%: conocimiento y razonamiento de frontera

GPQA Diamond 69.8%: sólido razonamiento científico

MMMU 73.4%: excelente comprensión multimodal

Supera a GPT-4o en benchmarks de programación

17B parámetros activos de 400B totales (128 expertos)

Comparativa de benchmarks

Maverick vs Scout y generación anterior

La arquitectura de 128 expertos de Maverick ofrece mejoras significativas sobre Scout y Llama 3.1 en todas las categorías.

Benchmark
Llama 4 Maverick
128 expertos
Destacado
Llama 4 Scout
16 expertos
Llama 3.1 70B
Denso
GPT-4o
Propietario
MMLU Pro
Conocimiento y razonamiento
80.5%74.3%66.4%78.4%
GPQA Diamond
Conocimiento científico
69.8%57.2%46.7%53.6%
LiveCodeBench v5
Programación
43.4%32.8%28.5%37.0%
MMMU
Multimodal
73.4%69.4%-69.1%
Context Window
Tokens máximos
1M10M128K128K
Total Parameters
Tamaño del modelo
400B109B70B-
Active Parameters
Por token
17B17B70B-

Datos de la ficha oficial de Meta y evaluaciones independientes.

Escala de 128 expertos

Capacidad de 400B al coste de inferencia de 17B

La arquitectura MoE de 128 expertos de Maverick es un salto significativo respecto a los 16 expertos de Scout. Cada token se enruta a expertos especializados, dando al modelo acceso a 400B parámetros de conocimiento mientras solo activa 17B por pasada.

  • 128 expertos vs 16 de Scout: 8x más especialización
  • 400B parámetros totales vs 109B de Scout
  • Mismo coste de 17B parámetros activos por token que Scout
Llama 4 Maverick 128-expert MoE architecture

Multimodal

Comprensión nativa de texto e imagen

Maverick usa arquitectura de fusión temprana para procesar texto e imágenes juntos de forma nativa. La comprensión visual está integrada en el modelo desde su base, no añadida como un módulo separado.

  • 73.4% en el benchmark multimodal MMMU
  • Arquitectura de fusión temprana para procesamiento multimodal nativo
  • Analiza capturas de pantalla, diagramas, gráficos y documentos
Llama 4 Maverick multimodal capabilities

Descarga y despliegue

Despliegue en tu infraestructura

Descarga los pesos oficiales del modelo para desplegar en tu propia infraestructura.

Familia Llama 4

Explora toda la gama Llama 4

Maverick es el modelo insignia abierto de Meta. Compáralo con Scout y mira cómo se posiciona frente a otros modelos de frontera.

Llama 4 Scout

Especialista en ventana de contexto de 10M

Comparar

Todos los modelos Llama 4

Resumen completo de la familia

Ver todos

Llama 4 vs Kimi K2.6

Maverick vs el modelo de 1T de Moonshot

Comparar

Llama 4 vs Qwen 3.6

Meta vs lo último de Alibaba

Comparar

Llama 4 vs DeepSeek V4

Duelo de arquitecturas MoE

Comparar

Llama 4 vs MiniMax M2.7

Escala vs eficiencia de coste

Comparar

Comenzar

¿Listo para probar Llama 4 Maverick?

Empieza a chatear gratis al instante. Maverick es el modelo predeterminado en este sitio, sin configuración necesaria.