모델 변형
인스트럭션 튜닝 모델과 베이스 모델
채팅 및 복잡한 작업에 최적화된 인스트럭션 튜닝 버전과, 파인튜닝 및 연구를 위한 베이스 모델 중 선택하세요.
인스트럭션 튜닝
Maverick Instruct
대화형 AI, 복잡한 추론, 코드 생성에 최적화
지시 따르기 및 멀티턴 대화를 위해 RLHF로 파인튜닝
사전 학습
Maverick Base
파인튜닝 및 특수 애플리케이션을 위한 기반 MoE 모델
128개 전문가 라우팅으로 다양한 멀티모달 데이터에 사전 학습
기능
오픈 웨이트 모델의 프론티어 성능
Llama 4 Maverick은 128개 전문가 MoE 효율성에 고급 추론, 강력한 코딩, 네이티브 멀티모달 이해를 결합합니다 - 모두 토큰당 17B 활성 파라미터로 구현됩니다.
128개 전문가 MoE
128개 풀에서 전문화된 전문가를 통해 각 토큰을 라우팅합니다. 총 400B 파라미터가 토큰당 17B 추론 비용으로 프론티어 품질을 제공합니다.
고급 추론
MMLU Pro (80.5%) 및 GPQA Diamond (69.8%)에서 강력한 성능을 보입니다. 복잡한 추론 작업에서 독점 모델과 경쟁합니다.
코드 생성
코딩 벤치마크에서 GPT-4o를 능가합니다. 네이티브 함수 호출로 에이전틱 워크플로와 자율 코드 실행이 가능합니다.
1M 토큰 컨텍스트
긴 문서, 코드베이스, 장시간 대화를 처리합니다. 대부분의 프로덕션 사용 사례에 충분합니다.
네이티브 멀티모달
얼리 퓨전 아키텍처로 텍스트와 이미지를 네이티브로 함께 처리합니다. 스크린샷, 다이어그램, 문서를 텍스트와 함께 분석하세요.
다국어 지원
여러 언어에서 강력한 성능을 발휘합니다. 문화적 맥락 이해와 함께 글로벌 애플리케이션을 위해 설계되었습니다.
주요 하이라이트
Maverick이 돋보이는 이유
Maverick은 여러 벤치마크 카테고리에서 GPT-4o를 일관되게 능가하는 최초의 오픈 웨이트 모델입니다.
벤치마크 하이라이트
- MMLU Pro 80.5% - 프론티어 독점 모델과 경쟁
- GPQA Diamond 69.8% - 강력한 과학적 추론
- MMMU 73.4% - 우수한 멀티모달 이해
- 코딩 벤치마크에서 GPT-4o 능가
- 최상위 모델과 경쟁하는 Arena ELO
기술 사양
- 총 400B 파라미터, 토큰당 17B 활성
- MoE 아키텍처에 128개 전문가
- 1M 토큰 컨텍스트 윈도우
- 네이티브 멀티모달 (텍스트 + 이미지)
- Llama 3.1 호환 라이선스
성능
오픈 웨이트 MoE 모델의 프론티어 품질
Llama 4 Maverick은 MMLU Pro 80.5%, MMMU 73.4%를 달성하며, 토큰당 17B 파라미터만 활성화하면서 여러 벤치마크에서 GPT-4o를 능가합니다.
Maverick은 오픈 웨이트 모델이 최고의 독점 모델과 경쟁할 수 있음을 보여줍니다. 128개 전문가 아키텍처가 추론, 코딩, 멀티모달 작업 전반에서 일관된 우수성을 제공합니다.
MMLU Pro 80.5% - 프론티어급 지식 및 추론
GPQA Diamond 69.8% - 강력한 과학적 추론
MMMU 73.4% - 우수한 멀티모달 이해
코딩 벤치마크에서 GPT-4o 능가
총 400B에서 17B 활성 파라미터 (128개 전문가)
벤치마크 비교
Maverick vs Scout 및 이전 세대
Maverick의 128개 전문가 아키텍처는 모든 카테고리에서 Scout와 Llama 3.1 대비 크게 향상된 성능을 보여줍니다.
| Benchmark | Llama 4 Maverick 128개 전문가 주요 모델 | Llama 4 Scout 16개 전문가 | Llama 3.1 70B 밀집 모델 | GPT-4o 독점 모델 |
|---|---|---|---|---|
MMLU Pro 지식 및 추론 | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond 과학 지식 | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 코딩 | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU 멀티모달 | 73.4% | 69.4% | - | 69.1% |
Context Window 최대 토큰 | 1M | 10M | 128K | 128K |
Total Parameters 모델 크기 | 400B | 109B | 70B | - |
Active Parameters 토큰당 | 17B | 17B | 70B | - |
Meta 공식 모델 카드 및 독립 평가 데이터 기반.
멀티모달
네이티브 텍스트 및 이미지 이해
Maverick은 얼리 퓨전 아키텍처를 사용하여 텍스트와 이미지를 네이티브로 함께 처리합니다. 시각적 이해가 별도 모듈로 추가된 것이 아니라 모델에 처음부터 내장되어 있습니다.
- MMMU 멀티모달 벤치마크 73.4%
- 네이티브 멀티모달 처리를 위한 얼리 퓨전 아키텍처
- 스크린샷, 다이어그램, 차트, 문서 분석
시작하기
지금 Llama 4 Maverick을 사용해 보세요
바로 채팅을 시작하거나 셀프 호스팅 배포를 위해 가중치를 다운로드하세요.
다운로드 및 배포
셀프 호스팅 배포
인프라에 배포하기 위한 공식 모델 가중치를 다운로드하세요.
Llama 4 패밀리
Llama 4 전체 라인업 살펴보기
Maverick은 Meta의 플래그십 오픈 모델입니다. Scout와 비교하고 다른 프론티어 모델과의 차이를 확인하세요.