전체 모델
사용 사례에 맞는 Llama 4를 선택하세요
Scout와 Maverick은 서로 다른 시나리오에 최적화되어 있습니다. Scout는 장문맥 작업에, Maverick은 최고 품질에 강점을 보입니다.
Llama 4 Scout
1,000만 토큰 컨텍스트 윈도우 - 장문맥 전문 모델
16개 전문가에 걸쳐 총 109B 파라미터, 토큰당 17B 활성. 가장 큰 특징은 공개 모델 중 최장인 1,000만 토큰 컨텍스트 윈도우입니다.
전체 코드베이스, 다중 문서 연구 세트, 매우 긴 대화 기록을 한 번의 호출로 처리해야 할 때 Scout를 선택하세요.
Llama 4 Maverick
128개 전문가, 400B 파라미터 - 품질 플래그십
128개 전문가에 걸쳐 총 400B 파라미터, 토큰당 17B 활성. 주요 벤치마크에서 GPT-4o를 능가합니다. 이 사이트의 기본 채팅 모델입니다.
추론, 코딩, 멀티모달 분석, 복잡한 작업 완수에서 최고 품질이 필요할 때 Maverick을 선택하세요.
공통 기능
두 Llama 4 모델이 할 수 있는 것
Scout와 Maverick은 Meta의 MoE 아키텍처를 기반으로 공통된 기능 세트를 공유합니다.
네이티브 멀티모달
두 모델 모두 얼리 퓨전 아키텍처로 텍스트와 이미지를 네이티브로 처리합니다. 별도의 인코더나 파이프라인이 필요 없습니다.
MoE 효율성
두 모델 모두 토큰당 17B 파라미터만 활성화합니다. Scout는 16개 전문가(총 109B), Maverick은 128개 전문가(총 400B)를 사용합니다.
함수 호출
두 모델 모두 내장된 함수 호출로 에이전틱 워크플로를 지원합니다. 도구 사용을 위한 파인튜닝이 필요 없습니다.
확장된 컨텍스트
Scout: 1,000만 토큰. Maverick: 100만 토큰. 두 모델 모두 이전 세대의 한계를 크게 넘어섭니다.
다국어 지원
글로벌 애플리케이션을 위해 두 모델 모두 강력한 다국어 지원을 제공합니다.
오픈 웨이트
두 모델 모두 Llama 3.1 호환 라이선스 하에 완전한 오픈 웨이트입니다. 어디서든 배포하고 자유롭게 수정하세요.
빠른 선택 가이드
어떤 모델을 선택해야 할까요?
주요 사용 사례에 맞는 Llama 4 변형을 매칭하세요.
Scout를 선택해야 할 때
- 매우 긴 문서를 처리해야 할 때 (1,000만 토큰)
- 수백 개 파일에 걸친 전체 코드베이스 분석
- 다중 문서 연구 및 종합
- 장시간 대화 기록
- 더 낮은 메모리 요구사항 (총 109B vs 400B)
Maverick을 선택해야 할 때
- 최고 품질이 우선일 때
- 복잡한 추론 및 과학 작업
- 코드 생성 및 디버깅
- 멀티모달 분석 (스크린샷, 다이어그램)
- 벤치마크 성능이 가장 중요한 작업
성능
전체 벤치마크 비교
Scout는 컨텍스트 길이에, Maverick은 순수 품질에 최적화되어 있습니다. 두 모델 모두 설계 목표 대비 강력한 성능을 제공합니다.
Maverick: MMLU Pro 80.5%, MMMU 73.4%, 코딩에서 GPT-4o 능가
Scout: 1,000만 토큰 컨텍스트, 8M 토큰에서 95% 이상 검색 정확도
공통: 17B 활성 파라미터, 네이티브 멀티모달, 함수 호출
공통: Llama 3.1 호환 라이선스 하의 오픈 웨이트
전체 비교
Scout vs Maverick 나란히 비교
추론, 코딩, 멀티모달, 배포 지표에 걸친 전체 벤치마크 결과.
| Benchmark | Maverick 128개 전문가 플래그십 | Scout 16개 전문가 장문맥 |
|---|---|---|
MMLU Pro 지식 및 추론 | 80.5% | 74.3% |
GPQA Diamond 과학 지식 | 69.8% | 57.2% |
LiveCodeBench v5 코딩 | 43.4% | 32.8% |
MMMU 멀티모달 | 73.4% | 69.4% |
Context Window 최대 토큰 | 1M | 10M |
Total Parameters 모델 크기 | 400B | 109B |
Active Parameters 토큰당 | 17B | 17B |
Number of Experts MoE 라우팅 | 128 | 16 |
Meta 공식 모델 카드 및 독립 평가 데이터 기반.
Scout
Scout: 컨텍스트 길이가 모든 것일 때
Scout의 1,000만 토큰 컨텍스트 윈도우는 비교 불가합니다. 전체 코드베이스, 다중 문서 연구 세트, 수 시간 분량의 녹취록을 한 번의 호출로 처리할 수 있습니다. 매우 긴 입력이 필요한 작업이라면 Scout가 확실한 선택입니다.
- 1,000만 토큰 컨텍스트 - 오픈 모델 중 최장
- 8M 토큰까지 95% 이상 검색 정확도
- 16개 전문가에 걸쳐 총 109B 파라미터
Maverick
Maverick: 품질이 우선일 때
Maverick의 128개 전문가 아키텍처는 프론티어급 성능을 제공합니다. 주요 벤치마크에서 GPT-4o를 능가하며, 복잡한 추론, 코딩, 멀티모달 작업을 손쉽게 처리하기 때문에 이 사이트의 기본 모델로 선정되었습니다.
- MMLU Pro 80.5% - 프론티어 지식 및 추론
- 코딩 벤치마크에서 GPT-4o 능가
- 128개 전문가에 걸쳐 총 400B 파라미터
지금 사용해 보기
Llama 4와 채팅 시작
채팅 인터페이스를 통해 두 모델을 바로 사용해 보세요.
다운로드
모델 가중치 받기
Llama 4 변형의 공식 가중치를 다운로드하세요.