모델 변형
인스트럭션 튜닝 모델과 베이스 모델
채팅 및 장문맥 작업에 최적화된 인스트럭션 튜닝 버전과, 파인튜닝 및 맞춤 애플리케이션을 위한 베이스 모델 중 선택하세요.
인스트럭션 튜닝
Scout Instruct
대화형 AI 및 장문맥 작업 완수에 최적화
지시 따르기, 멀티턴 대화, 매우 긴 입력 처리에 맞춰 파인튜닝
사전 학습
Scout Base
파인튜닝 및 특수 애플리케이션을 위한 기반 MoE 모델
16개 전문가 라우팅으로 다양한 멀티모달 데이터에 사전 학습
기능
대규모 컨텍스트와 멀티모달 이해를 위해 설계
Llama 4 Scout는 전례 없는 1,000만 토큰 컨텍스트 윈도우에 MoE 효율성, 네이티브 멀티모달 지원, 강력한 추론 능력을 결합합니다.
1,000만 토큰 컨텍스트 윈도우
공개 모델 중 가장 긴 컨텍스트 윈도우입니다. 전체 코드베이스, 다중 문서 연구 자료, 수 시간 분량의 대화를 한 번의 호출로 처리할 수 있습니다.
MoE 효율성
16개 전문가에 걸친 109B 풀에서 토큰당 17B 파라미터만 활성화합니다. 밀집 모델 대비 훨씬 적은 연산 비용으로 강력한 성능을 제공합니다.
대규모 코드 분석
전체 리포지토리를 컨텍스트에 로드하여 파일 간 분석, 의존성 추적, 대규모 리팩토링 작업을 수행할 수 있습니다.
에이전틱 워크플로
네이티브 함수 호출 및 도구 사용을 지원하여 자율 에이전트를 구축할 수 있습니다. 파인튜닝 없이 여러 도구를 연결하는 워크플로를 만드세요.
다국어 지원
글로벌 애플리케이션을 위해 문화적 맥락을 이해하며 여러 언어에서 강력한 성능을 발휘합니다.
네이티브 멀티모달
얼리 퓨전 아키텍처로 텍스트와 이미지를 함께 처리합니다. 스크린샷, 다이어그램, 문서를 텍스트와 함께 분석하세요.
주요 하이라이트
Scout의 컨텍스트 윈도우가 중요한 이유
1,000만 토큰 컨텍스트 윈도우는 단일 모델 호출로 가능한 것의 범위를 바꿉니다.
1,000만 토큰에 담을 수 있는 것
- 중간 규모 코드베이스 전체 (수백 개 파일에 걸친 50K+ 라인)
- 여러 연구 논문 또는 책 한 권 전체
- 수 시간 분량의 회의 녹취록 또는 대화 기록
- 복잡한 시스템의 전체 문서 세트
- Needle-in-a-haystack 테스트에서 8M 토큰까지 95% 이상 검색 정확도
기술 사양
- 총 109B 파라미터, 토큰당 17B 활성
- MoE 아키텍처에 16개 전문가
- 1,000만 토큰 컨텍스트 윈도우
- 네이티브 멀티모달 (텍스트 + 이미지)
- Llama 3.1 호환 라이선스
성능
경쟁력 있는 추론 능력을 갖춘 장문맥 전문 모델
Llama 4 Scout는 표준 벤치마크에서 강력한 성능을 보이면서 장문서 작업을 위한 비교 불가한 1,000만 토큰 컨텍스트 윈도우를 제공합니다.
Scout는 대량의 컨텍스트 처리가 필요한 작업에 최적화되어 있습니다. 순수 벤치마크 점수에서는 Maverick이 앞서지만, Scout의 1,000만 토큰 컨텍스트 윈도우는 장문서 워크플로에서 확실한 선택입니다.
1,000만 토큰 컨텍스트 윈도우 - 오픈 모델 중 최장
8M 토큰까지 95% 이상 검색 정확도
총 109B에서 17B 활성 파라미터 (16개 전문가)
활성 파라미터 수 2~3배 모델과 경쟁력 있는 성능
텍스트 및 이미지 입력을 위한 네이티브 멀티모달 지원
벤치마크 비교
Scout vs Maverick 및 Llama 4 패밀리
Scout는 대규모 컨텍스트 윈도우의 이점을 위해 일부 순수 벤치마크 성능을 교환합니다.
| Benchmark | Llama 4 Scout 16개 전문가 주요 모델 | Llama 4 Maverick 128개 전문가 | Llama 3.1 70B 밀집 모델 |
|---|---|---|---|
MMLU Pro 지식 및 추론 | 74.3% | 80.5% | 66.4% |
GPQA Diamond 과학 지식 | 57.2% | 69.8% | 46.7% |
LiveCodeBench v5 코딩 | 32.8% | 43.4% | 28.5% |
MMMU 멀티모달 | 69.4% | 73.4% | - |
Context Window 최대 토큰 | 10M | 1M | 128K |
Total Parameters 모델 크기 | 109B | 400B | 70B |
Active Parameters 토큰당 | 17B | 17B | 70B |
Meta 공식 모델 카드 및 독립 평가 데이터 기반.
MoE 아키텍처
109B 용량을 17B 추론 비용으로
Scout의 16개 전문가 MoE 아키텍처는 훨씬 큰 모델의 표현 능력을 유지하면서 토큰당 17B 파라미터만 활성화합니다. 이를 통해 단일 노드에서도 강력한 성능으로 실용적인 배포가 가능합니다.
- 순전파당 17B 활성 파라미터를 가진 16개 전문가
- 더 낮은 총 메모리에서 Maverick과 동일한 활성 파라미터 수
- 단일 노드 배포 시나리오에 적합
시작하기
지금 Llama 4 Scout를 사용해 보세요
바로 채팅을 시작하거나 셀프 호스팅 배포를 위해 가중치를 다운로드하세요.
다운로드 및 배포
셀프 호스팅 배포
인프라에 배포하기 위한 공식 모델 가중치를 다운로드하세요.
Llama 4 패밀리
Llama 4 전체 라인업 살펴보기
Scout는 Meta의 Llama 4 패밀리의 일부입니다. Maverick과 비교하고 다른 오픈 모델과의 차이를 확인하세요.