Llama 4 Maverick
400B parámetros, 128 expertos: el modelo abierto más capaz de Meta
Llama 4 Maverick es el modelo insignia MoE de Meta. Con 400B parámetros totales enrutados a través de 128 expertos y solo 17B activos por token, ofrece rendimiento de frontera que supera a GPT-4o en benchmarks clave, manteniendo pesos completamente abiertos.
Variantes del modelo
Modelos ajustados por instrucciones y base
Elige entre la variante ajustada por instrucciones, optimizada para chat y tareas complejas, o el modelo base para ajuste fino e investigación.
Arquitectura MoE de 128 expertos
400B parámetros totales, 17B activos por token
Maverick escala a 128 expertos desde los 16 de Scout, alcanzando 400B parámetros totales mientras mantiene la misma huella de 17B activos por token. Esto le otorga capacidades significativamente superiores en razonamiento, programación y multimodalidad.
El modelo de chat predeterminado en este sitio. Ideal para tareas que requieren máxima calidad: razonamiento complejo, generación de código, análisis multimodal y síntesis de investigación.
Ajustado por instrucciones
Maverick Instruct
Optimizado para IA conversacional, razonamiento complejo y generación de código
Ajustado con RLHF para seguir instrucciones y diálogo multi-turno
Pre-entrenado
Maverick Base
Modelo MoE base para ajuste fino y aplicaciones especializadas
Pre-entrenado con datos multimodales diversos y enrutamiento de 128 expertos
Capacidades
Rendimiento de frontera en un modelo de pesos abiertos
Llama 4 Maverick combina la eficiencia MoE de 128 expertos con razonamiento avanzado, programación sólida y comprensión multimodal nativa, todo con 17B parámetros activos por token.
MoE de 128 expertos
Enruta cada token a expertos especializados de un pool de 128. 400B parámetros totales ofrecen calidad de frontera al coste de inferencia de 17B por token.
Razonamiento avanzado
Alto rendimiento en MMLU Pro (80.5%) y GPQA Diamond (69.8%). Competitivo con modelos propietarios en tareas de razonamiento complejo.
Generación de código
Supera a GPT-4o en benchmarks de programación. Las llamadas a funciones nativas permiten flujos de trabajo agénticos y ejecución autónoma de código.
Contexto de 1M tokens
Procesa documentos largos, repositorios y conversaciones extensas. Suficiente para la mayoría de casos de uso en producción.
Multimodal nativo
La arquitectura de fusión temprana procesa texto e imágenes juntos de forma nativa. Analiza capturas de pantalla, diagramas y documentos junto con texto.
Multilingüe
Alto rendimiento en múltiples idiomas. Diseñado para aplicaciones globales con comprensión del contexto cultural.
Puntos clave
Por qué Maverick destaca
Maverick es el primer modelo de pesos abiertos que supera consistentemente a GPT-4o en múltiples categorías de benchmarks.
Resultados destacados en benchmarks
- MMLU Pro 80.5%: competitivo con modelos propietarios de frontera
- GPQA Diamond 69.8%: sólido razonamiento científico
- MMMU 73.4%: excelente comprensión multimodal
- Supera a GPT-4o en benchmarks de programación
- ELO en Arena competitivo con los modelos de primer nivel
Especificaciones técnicas
- 400B parámetros totales, 17B activos por token
- 128 expertos en arquitectura MoE
- Ventana de contexto de 1M tokens
- Multimodal nativo (texto + imagen)
- Licencia compatible con Llama 3.1
Rendimiento
Calidad de frontera en un modelo MoE de pesos abiertos
Llama 4 Maverick alcanza 80.5% en MMLU Pro y 73.4% en MMMU, superando a GPT-4o en múltiples benchmarks mientras activa solo 17B parámetros por token.
Maverick demuestra que los modelos de pesos abiertos pueden competir con las mejores ofertas propietarias. Su arquitectura de 128 expertos ofrece excelencia consistente en razonamiento, programación y tareas multimodales.
MMLU Pro 80.5%: conocimiento y razonamiento de frontera
GPQA Diamond 69.8%: sólido razonamiento científico
MMMU 73.4%: excelente comprensión multimodal
Supera a GPT-4o en benchmarks de programación
17B parámetros activos de 400B totales (128 expertos)
Comparativa de benchmarks
Maverick vs Scout y generación anterior
La arquitectura de 128 expertos de Maverick ofrece mejoras significativas sobre Scout y Llama 3.1 en todas las categorías.
| Benchmark | Llama 4 Maverick 128 expertos Destacado | Llama 4 Scout 16 expertos | Llama 3.1 70B Denso | GPT-4o Propietario |
|---|---|---|---|---|
MMLU Pro Conocimiento y razonamiento | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond Conocimiento científico | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 Programación | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU Multimodal | 73.4% | 69.4% | - | 69.1% |
Context Window Tokens máximos | 1M | 10M | 128K | 128K |
Total Parameters Tamaño del modelo | 400B | 109B | 70B | - |
Active Parameters Por token | 17B | 17B | 70B | - |
Datos de la ficha oficial de Meta y evaluaciones independientes.
Escala de 128 expertos
Capacidad de 400B al coste de inferencia de 17B
La arquitectura MoE de 128 expertos de Maverick es un salto significativo respecto a los 16 expertos de Scout. Cada token se enruta a expertos especializados, dando al modelo acceso a 400B parámetros de conocimiento mientras solo activa 17B por pasada.
- 128 expertos vs 16 de Scout: 8x más especialización
- 400B parámetros totales vs 109B de Scout
- Mismo coste de 17B parámetros activos por token que Scout
Multimodal
Comprensión nativa de texto e imagen
Maverick usa arquitectura de fusión temprana para procesar texto e imágenes juntos de forma nativa. La comprensión visual está integrada en el modelo desde su base, no añadida como un módulo separado.
- 73.4% en el benchmark multimodal MMMU
- Arquitectura de fusión temprana para procesamiento multimodal nativo
- Analiza capturas de pantalla, diagramas, gráficos y documentos
Comenzar
Prueba Llama 4 Maverick ahora
Empieza a chatear al instante o descarga los pesos para despliegue propio.
Descarga y despliegue
Despliegue en tu infraestructura
Descarga los pesos oficiales del modelo para desplegar en tu propia infraestructura.
Familia Llama 4
Explora toda la gama Llama 4
Maverick es el modelo insignia abierto de Meta. Compáralo con Scout y mira cómo se posiciona frente a otros modelos de frontera.
Comenzar
¿Listo para probar Llama 4 Maverick?
Empieza a chatear gratis al instante. Maverick es el modelo predeterminado en este sitio, sin configuración necesaria.