Llama 4 Scout

10 millones de tokens de contexto: la ventana más larga en cualquier modelo abierto

Llama 4 Scout es el especialista en contexto largo de Meta. Con 109B parámetros totales, 17B activos por token en 16 expertos y una ventana de contexto de 10M tokens, puede procesar repositorios completos, bibliotecas de investigación multidocumento y horas de historial de conversación en una sola llamada.

Variantes del modelo

Modelos ajustados por instrucciones y base

Elige entre la variante ajustada por instrucciones, optimizada para chat y tareas de contexto largo, o el modelo base para ajuste fino y aplicaciones personalizadas.

Arquitectura Mixture-of-Experts

109B parámetros totales, 17B activos por token

Llama 4 Scout usa un diseño MoE disperso con 16 expertos, activando 17B parámetros por pasada. Su característica destacada es la ventana de contexto de 10 millones de tokens, la más larga de cualquier modelo abierto disponible.

Ideal para tareas que requieren procesar grandes cantidades de texto: repositorios completos, análisis multidocumento, artículos de investigación extensos e historiales de conversación prolongados.

Ajustado por instrucciones

Scout Instruct

Optimizado para IA conversacional y tareas de contexto largo

Ajustado para seguir instrucciones, diálogo multi-turno y procesamiento de entradas muy largas

Disponible ahora

Pre-entrenado

Scout Base

Modelo MoE base para ajuste fino y aplicaciones especializadas

Pre-entrenado con datos multimodales diversos y enrutamiento de 16 expertos

Disponible ahora

Capacidades

Diseñado para contexto masivo y comprensión multimodal

Llama 4 Scout combina una ventana de contexto de 10M tokens sin precedentes con eficiencia MoE, soporte multimodal nativo y sólidas capacidades de razonamiento.

Ventana de contexto de 10M tokens

La ventana de contexto más larga de cualquier modelo abierto disponible. Procesa repositorios completos, bibliotecas de investigación multidocumento u horas de conversación en una sola llamada.

Eficiencia MoE

Activa solo 17B parámetros por token de un pool de 109B en 16 expertos. Alto rendimiento a una fracción del coste computacional de los modelos densos.

Análisis de código a escala

Carga repositorios completos en contexto para análisis entre archivos, seguimiento de dependencias y tareas de refactorización a gran escala.

Flujos de trabajo agénticos

Soporte nativo para llamadas a funciones y uso de herramientas que permite agentes autónomos. Construye flujos que encadenan múltiples herramientas sin ajuste fino.

Soporte multilingüe

Alto rendimiento en múltiples idiomas con comprensión del contexto cultural para aplicaciones globales.

Multimodal nativo

Procesa texto e imágenes juntos con arquitectura de fusión temprana. Analiza capturas de pantalla, diagramas y documentos junto con texto.

Puntos clave

Por qué importa la ventana de contexto de Scout

Una ventana de contexto de 10M tokens cambia lo que es posible con una sola llamada al modelo.

Qué cabe en 10M tokens

  • Un repositorio mediano completo (más de 50K líneas en cientos de archivos)
  • Múltiples artículos de investigación o un libro entero
  • Horas de transcripciones de reuniones o historial de conversación
  • Conjuntos de documentación completos para sistemas complejos
  • Más del 95% de precisión en recuperación hasta 8M tokens en pruebas needle-in-a-haystack

Especificaciones técnicas

  • 109B parámetros totales, 17B activos por token
  • 16 expertos en arquitectura MoE
  • Ventana de contexto de 10M tokens
  • Multimodal nativo (texto + imagen)
  • Licencia compatible con Llama 3.1

Rendimiento

Especialista en contexto largo con razonamiento competitivo

Llama 4 Scout ofrece un rendimiento sólido en benchmarks estándar mientras proporciona una ventana de contexto de 10M tokens inigualable para tareas con documentos largos.

Scout está optimizado para tareas que requieren procesar grandes cantidades de contexto. Aunque Maverick lidera en puntuaciones brutas de benchmarks, la ventana de contexto de 10M de Scout lo convierte en la opción clara para flujos de trabajo con documentos largos.

Gráfico comparativo de rendimiento de Llama 4 Scout

Ventana de contexto de 10M tokens: la más larga de cualquier modelo abierto

Más del 95% de precisión en recuperación hasta 8M tokens

17B parámetros activos de 109B totales (16 expertos)

Competitivo con modelos de 2-3x su cantidad de parámetros activos

Soporte multimodal nativo para entradas de texto e imagen

Comparativa de benchmarks

Scout vs Maverick y la familia Llama 4

Scout sacrifica algo de rendimiento bruto en benchmarks a cambio de su enorme ventaja en ventana de contexto.

Benchmark
Llama 4 Scout
16 expertos
Destacado
Llama 4 Maverick
128 expertos
Llama 3.1 70B
Denso
MMLU Pro
Conocimiento y razonamiento
74.3%80.5%66.4%
GPQA Diamond
Conocimiento científico
57.2%69.8%46.7%
LiveCodeBench v5
Programación
32.8%43.4%28.5%
MMMU
Multimodal
69.4%73.4%-
Context Window
Tokens máximos
10M1M128K
Total Parameters
Tamaño del modelo
109B400B70B
Active Parameters
Por token
17B17B70B

Datos de la ficha oficial de Meta y evaluaciones independientes.

Contexto largo

10M tokens: procesa repositorios completos en una sola llamada

La ventana de contexto de 10M tokens de Scout es la más larga de cualquier modelo abierto disponible. Carga repositorios completos, conjuntos de investigación multidocumento u horas de transcripciones en un solo contexto para un análisis integral.

  • Más del 95% de precisión en recuperación hasta 8M tokens en pruebas needle-in-a-haystack
  • 89% de precisión en el límite completo de 10M tokens
  • Procesa más de 50K líneas de código en cientos de archivos simultáneamente
Llama 4 Scout MoE architecture

Arquitectura MoE

Capacidad de 109B al coste de inferencia de 17B

La arquitectura MoE de 16 expertos de Scout activa solo 17B parámetros por token mientras mantiene la capacidad representacional de un modelo mucho más grande. Esto lo hace práctico para despliegue en un solo nodo sin sacrificar rendimiento.

  • 16 expertos con 17B parámetros activos por pasada
  • Misma cantidad de parámetros activos que Maverick con menor memoria total
  • Práctico para escenarios de despliegue en un solo nodo
Llama 4 Scout 10M context window

Descarga y despliegue

Despliegue en tu infraestructura

Descarga los pesos oficiales del modelo para desplegar en tu propia infraestructura.

Familia Llama 4

Explora toda la gama Llama 4

Scout forma parte de la familia Llama 4 de Meta. Compáralo con Maverick y mira cómo se posiciona frente a otros modelos abiertos.

Llama 4 Maverick

Modelo insignia MoE de 400B con 128 expertos

Comparar

Todos los modelos Llama 4

Resumen completo de la familia

Ver todos

Llama 4 vs Kimi K2.6

Scout/Maverick vs el modelo de 1T de Moonshot

Comparar

Llama 4 vs Qwen 3.6

Meta vs lo último de Alibaba

Comparar

Llama 4 vs DeepSeek V4

Duelo de arquitecturas MoE

Comparar

Llama 4 vs MiniMax M2.7

Contexto vs eficiencia de coste

Comparar

Comenzar

¿Listo para probar Llama 4 Scout?

Empieza a chatear gratis al instante o descarga el modelo para despliegue propio. La ventana de contexto de 10M tokens te espera.