Llama 4 Scout

1,000만 토큰 컨텍스트 - 오픈 모델 중 가장 긴 윈도우

Llama 4 Scout는 Meta의 장문맥 전문 모델입니다. 총 109B 파라미터, 16개 전문가에 걸쳐 토큰당 17B 활성 파라미터, 1,000만 토큰 컨텍스트 윈도우를 갖추고 있어 전체 코드베이스, 다중 문서 연구 자료, 수 시간 분량의 대화 기록을 한 번의 호출로 처리할 수 있습니다.

모델 변형

인스트럭션 튜닝 모델과 베이스 모델

채팅 및 장문맥 작업에 최적화된 인스트럭션 튜닝 버전과, 파인튜닝 및 맞춤 애플리케이션을 위한 베이스 모델 중 선택하세요.

Mixture-of-Experts 아키텍처

총 109B 파라미터, 토큰당 17B 활성

Llama 4 Scout는 16개 전문가를 활용하는 희소 MoE 설계로, 순전파 시 17B 파라미터를 활성화합니다. 가장 큰 특징은 공개 모델 중 최장인 1,000만 토큰 컨텍스트 윈도우입니다.

대규모 텍스트 처리가 필요한 작업에 적합합니다: 전체 코드베이스, 다중 문서 분석, 긴 연구 논문, 장시간 대화 기록 등.

인스트럭션 튜닝

Scout Instruct

대화형 AI 및 장문맥 작업 완수에 최적화

지시 따르기, 멀티턴 대화, 매우 긴 입력 처리에 맞춰 파인튜닝

지금 이용 가능

사전 학습

Scout Base

파인튜닝 및 특수 애플리케이션을 위한 기반 MoE 모델

16개 전문가 라우팅으로 다양한 멀티모달 데이터에 사전 학습

지금 이용 가능

기능

대규모 컨텍스트와 멀티모달 이해를 위해 설계

Llama 4 Scout는 전례 없는 1,000만 토큰 컨텍스트 윈도우에 MoE 효율성, 네이티브 멀티모달 지원, 강력한 추론 능력을 결합합니다.

1,000만 토큰 컨텍스트 윈도우

공개 모델 중 가장 긴 컨텍스트 윈도우입니다. 전체 코드베이스, 다중 문서 연구 자료, 수 시간 분량의 대화를 한 번의 호출로 처리할 수 있습니다.

MoE 효율성

16개 전문가에 걸친 109B 풀에서 토큰당 17B 파라미터만 활성화합니다. 밀집 모델 대비 훨씬 적은 연산 비용으로 강력한 성능을 제공합니다.

대규모 코드 분석

전체 리포지토리를 컨텍스트에 로드하여 파일 간 분석, 의존성 추적, 대규모 리팩토링 작업을 수행할 수 있습니다.

에이전틱 워크플로

네이티브 함수 호출 및 도구 사용을 지원하여 자율 에이전트를 구축할 수 있습니다. 파인튜닝 없이 여러 도구를 연결하는 워크플로를 만드세요.

다국어 지원

글로벌 애플리케이션을 위해 문화적 맥락을 이해하며 여러 언어에서 강력한 성능을 발휘합니다.

네이티브 멀티모달

얼리 퓨전 아키텍처로 텍스트와 이미지를 함께 처리합니다. 스크린샷, 다이어그램, 문서를 텍스트와 함께 분석하세요.

주요 하이라이트

Scout의 컨텍스트 윈도우가 중요한 이유

1,000만 토큰 컨텍스트 윈도우는 단일 모델 호출로 가능한 것의 범위를 바꿉니다.

1,000만 토큰에 담을 수 있는 것

  • 중간 규모 코드베이스 전체 (수백 개 파일에 걸친 50K+ 라인)
  • 여러 연구 논문 또는 책 한 권 전체
  • 수 시간 분량의 회의 녹취록 또는 대화 기록
  • 복잡한 시스템의 전체 문서 세트
  • Needle-in-a-haystack 테스트에서 8M 토큰까지 95% 이상 검색 정확도

기술 사양

  • 총 109B 파라미터, 토큰당 17B 활성
  • MoE 아키텍처에 16개 전문가
  • 1,000만 토큰 컨텍스트 윈도우
  • 네이티브 멀티모달 (텍스트 + 이미지)
  • Llama 3.1 호환 라이선스

성능

경쟁력 있는 추론 능력을 갖춘 장문맥 전문 모델

Llama 4 Scout는 표준 벤치마크에서 강력한 성능을 보이면서 장문서 작업을 위한 비교 불가한 1,000만 토큰 컨텍스트 윈도우를 제공합니다.

Scout는 대량의 컨텍스트 처리가 필요한 작업에 최적화되어 있습니다. 순수 벤치마크 점수에서는 Maverick이 앞서지만, Scout의 1,000만 토큰 컨텍스트 윈도우는 장문서 워크플로에서 확실한 선택입니다.

Llama 4 Scout 성능 비교 차트

1,000만 토큰 컨텍스트 윈도우 - 오픈 모델 중 최장

8M 토큰까지 95% 이상 검색 정확도

총 109B에서 17B 활성 파라미터 (16개 전문가)

활성 파라미터 수 2~3배 모델과 경쟁력 있는 성능

텍스트 및 이미지 입력을 위한 네이티브 멀티모달 지원

벤치마크 비교

Scout vs Maverick 및 Llama 4 패밀리

Scout는 대규모 컨텍스트 윈도우의 이점을 위해 일부 순수 벤치마크 성능을 교환합니다.

Benchmark
Llama 4 Scout
16개 전문가
주요 모델
Llama 4 Maverick
128개 전문가
Llama 3.1 70B
밀집 모델
MMLU Pro
지식 및 추론
74.3%80.5%66.4%
GPQA Diamond
과학 지식
57.2%69.8%46.7%
LiveCodeBench v5
코딩
32.8%43.4%28.5%
MMMU
멀티모달
69.4%73.4%-
Context Window
최대 토큰
10M1M128K
Total Parameters
모델 크기
109B400B70B
Active Parameters
토큰당
17B17B70B

Meta 공식 모델 카드 및 독립 평가 데이터 기반.

장문맥

1,000만 토큰: 전체 코드베이스를 한 번에 처리

Scout의 1,000만 토큰 컨텍스트 윈도우는 공개 모델 중 가장 깁니다. 전체 리포지토리, 다중 문서 연구 세트, 수 시간 분량의 녹취록을 단일 컨텍스트에 로드하여 종합적인 분석을 수행하세요.

  • Needle-in-a-haystack 테스트에서 8M 토큰까지 95% 이상 검색 정확도
  • 전체 1,000만 토큰 한도에서 89% 정확도
  • 수백 개 파일에 걸친 50K+ 라인의 코드를 동시에 처리
Llama 4 Scout MoE architecture

MoE 아키텍처

109B 용량을 17B 추론 비용으로

Scout의 16개 전문가 MoE 아키텍처는 훨씬 큰 모델의 표현 능력을 유지하면서 토큰당 17B 파라미터만 활성화합니다. 이를 통해 단일 노드에서도 강력한 성능으로 실용적인 배포가 가능합니다.

  • 순전파당 17B 활성 파라미터를 가진 16개 전문가
  • 더 낮은 총 메모리에서 Maverick과 동일한 활성 파라미터 수
  • 단일 노드 배포 시나리오에 적합
Llama 4 Scout 10M context window

시작하기

지금 Llama 4 Scout를 사용해 보세요

바로 채팅을 시작하거나 셀프 호스팅 배포를 위해 가중치를 다운로드하세요.

다운로드 및 배포

셀프 호스팅 배포

인프라에 배포하기 위한 공식 모델 가중치를 다운로드하세요.

Llama 4 패밀리

Llama 4 전체 라인업 살펴보기

Scout는 Meta의 Llama 4 패밀리의 일부입니다. Maverick과 비교하고 다른 오픈 모델과의 차이를 확인하세요.

Llama 4 Maverick

128개 전문가를 갖춘 400B MoE 플래그십

비교하기

Llama 4 모델 전체

패밀리 전체 개요

전체 보기

Llama 4 vs Kimi K2.6

Scout/Maverick vs Moonshot의 1T 모델

비교하기

Llama 4 vs Qwen 3.6

Meta vs Alibaba 최신 모델

비교하기

Llama 4 vs DeepSeek V4

MoE 아키텍처 대결

비교하기

Llama 4 vs MiniMax M2.7

컨텍스트 vs 비용 효율성

비교하기

시작하기

Llama 4 Scout를 사용해 볼 준비가 되셨나요?

무료로 바로 채팅을 시작하거나 셀프 호스팅 배포를 위해 모델을 다운로드하세요. 1,000만 토큰 컨텍스트 윈도우가 기다리고 있습니다.