Llama 4 모델

두 모델, 하나의 패밀리 - 장문맥에서 프론티어 품질까지

Llama 4 패밀리는 두 개의 MoE 모델로 구성됩니다: 대규모 컨텍스트(1,000만 토큰)를 위한 Scout와 최고 품질(128개 전문가, 400B 파라미터)을 위한 Maverick. 두 모델 모두 토큰당 17B 활성 파라미터와 네이티브 멀티모달을 지원합니다.

전체 모델

사용 사례에 맞는 Llama 4를 선택하세요

Scout와 Maverick은 서로 다른 시나리오에 최적화되어 있습니다. Scout는 장문맥 작업에, Maverick은 최고 품질에 강점을 보입니다.

Llama 4 Scout

1,000만 토큰 컨텍스트 윈도우 - 장문맥 전문 모델

16개 전문가에 걸쳐 총 109B 파라미터, 토큰당 17B 활성. 가장 큰 특징은 공개 모델 중 최장인 1,000만 토큰 컨텍스트 윈도우입니다.

전체 코드베이스, 다중 문서 연구 세트, 매우 긴 대화 기록을 한 번의 호출로 처리해야 할 때 Scout를 선택하세요.

Llama 4 Maverick

128개 전문가, 400B 파라미터 - 품질 플래그십

128개 전문가에 걸쳐 총 400B 파라미터, 토큰당 17B 활성. 주요 벤치마크에서 GPT-4o를 능가합니다. 이 사이트의 기본 채팅 모델입니다.

추론, 코딩, 멀티모달 분석, 복잡한 작업 완수에서 최고 품질이 필요할 때 Maverick을 선택하세요.

장문맥

Llama 4 Scout

총 109B, 17B 활성, 16개 전문가. 1,000만 토큰 컨텍스트 윈도우.

적합한 용도: 전체 코드베이스, 다중 문서 분석, 긴 연구 논문, 장시간 대화.

지금 이용 가능

플래그십

Llama 4 Maverick

총 400B, 17B 활성, 128개 전문가. 벤치마크에서 GPT-4o 능가.

적합한 용도: 복잡한 추론, 코드 생성, 멀티모달 작업, 연구 종합.

지금 이용 가능

공통 기능

두 Llama 4 모델이 할 수 있는 것

Scout와 Maverick은 Meta의 MoE 아키텍처를 기반으로 공통된 기능 세트를 공유합니다.

네이티브 멀티모달

두 모델 모두 얼리 퓨전 아키텍처로 텍스트와 이미지를 네이티브로 처리합니다. 별도의 인코더나 파이프라인이 필요 없습니다.

MoE 효율성

두 모델 모두 토큰당 17B 파라미터만 활성화합니다. Scout는 16개 전문가(총 109B), Maverick은 128개 전문가(총 400B)를 사용합니다.

함수 호출

두 모델 모두 내장된 함수 호출로 에이전틱 워크플로를 지원합니다. 도구 사용을 위한 파인튜닝이 필요 없습니다.

확장된 컨텍스트

Scout: 1,000만 토큰. Maverick: 100만 토큰. 두 모델 모두 이전 세대의 한계를 크게 넘어섭니다.

다국어 지원

글로벌 애플리케이션을 위해 두 모델 모두 강력한 다국어 지원을 제공합니다.

오픈 웨이트

두 모델 모두 Llama 3.1 호환 라이선스 하에 완전한 오픈 웨이트입니다. 어디서든 배포하고 자유롭게 수정하세요.

빠른 선택 가이드

어떤 모델을 선택해야 할까요?

주요 사용 사례에 맞는 Llama 4 변형을 매칭하세요.

Scout를 선택해야 할 때

  • 매우 긴 문서를 처리해야 할 때 (1,000만 토큰)
  • 수백 개 파일에 걸친 전체 코드베이스 분석
  • 다중 문서 연구 및 종합
  • 장시간 대화 기록
  • 더 낮은 메모리 요구사항 (총 109B vs 400B)

Maverick을 선택해야 할 때

  • 최고 품질이 우선일 때
  • 복잡한 추론 및 과학 작업
  • 코드 생성 및 디버깅
  • 멀티모달 분석 (스크린샷, 다이어그램)
  • 벤치마크 성능이 가장 중요한 작업

성능

전체 벤치마크 비교

Scout는 컨텍스트 길이에, Maverick은 순수 품질에 최적화되어 있습니다. 두 모델 모두 설계 목표 대비 강력한 성능을 제공합니다.

Scout와 Maverick 사이의 선택은 주요 필요에 따라 달라집니다: 대규모 컨텍스트 또는 최고 품질. 주요 벤치마크에서의 비교 결과입니다.

Llama 4 패밀리 성능 비교 차트

Maverick: MMLU Pro 80.5%, MMMU 73.4%, 코딩에서 GPT-4o 능가

Scout: 1,000만 토큰 컨텍스트, 8M 토큰에서 95% 이상 검색 정확도

공통: 17B 활성 파라미터, 네이티브 멀티모달, 함수 호출

공통: Llama 3.1 호환 라이선스 하의 오픈 웨이트

전체 비교

Scout vs Maverick 나란히 비교

추론, 코딩, 멀티모달, 배포 지표에 걸친 전체 벤치마크 결과.

Benchmark
Maverick
128개 전문가
플래그십
Scout
16개 전문가
장문맥
MMLU Pro
지식 및 추론
80.5%74.3%
GPQA Diamond
과학 지식
69.8%57.2%
LiveCodeBench v5
코딩
43.4%32.8%
MMMU
멀티모달
73.4%69.4%
Context Window
최대 토큰
1M10M
Total Parameters
모델 크기
400B109B
Active Parameters
토큰당
17B17B
Number of Experts
MoE 라우팅
12816

Meta 공식 모델 카드 및 독립 평가 데이터 기반.

Scout

Scout: 컨텍스트 길이가 모든 것일 때

Scout의 1,000만 토큰 컨텍스트 윈도우는 비교 불가합니다. 전체 코드베이스, 다중 문서 연구 세트, 수 시간 분량의 녹취록을 한 번의 호출로 처리할 수 있습니다. 매우 긴 입력이 필요한 작업이라면 Scout가 확실한 선택입니다.

  • 1,000만 토큰 컨텍스트 - 오픈 모델 중 최장
  • 8M 토큰까지 95% 이상 검색 정확도
  • 16개 전문가에 걸쳐 총 109B 파라미터
Llama 4 Scout - long context specialist

Maverick

Maverick: 품질이 우선일 때

Maverick의 128개 전문가 아키텍처는 프론티어급 성능을 제공합니다. 주요 벤치마크에서 GPT-4o를 능가하며, 복잡한 추론, 코딩, 멀티모달 작업을 손쉽게 처리하기 때문에 이 사이트의 기본 모델로 선정되었습니다.

  • MMLU Pro 80.5% - 프론티어 지식 및 추론
  • 코딩 벤치마크에서 GPT-4o 능가
  • 128개 전문가에 걸쳐 총 400B 파라미터
Llama 4 Maverick - frontier quality

지금 사용해 보기

Llama 4와 채팅 시작

채팅 인터페이스를 통해 두 모델을 바로 사용해 보세요.

다운로드

모델 가중치 받기

Llama 4 변형의 공식 가중치를 다운로드하세요.

Llama 4 패밀리

각 모델을 살펴보고 경쟁 모델과 비교하세요

각 Llama 4 변형을 자세히 살펴보거나 다른 프론티어 오픈 모델과 비교해 보세요.

Llama 4 Scout

1,000만 토큰 컨텍스트 윈도우 전문 모델

살펴보기

Llama 4 Maverick

128개 전문가 플래그십 모델

살펴보기

Llama 4 vs Kimi K2.6

Meta vs Moonshot 비교

비교하기

Llama 4 vs Qwen 3.6

Meta vs Alibaba 비교

비교하기

Llama 4 vs DeepSeek V4

MoE 아키텍처 대결

비교하기

Llama 4 vs MiniMax M2.7

규모 vs 효율성

비교하기

시작하기

나에게 맞는 Llama 4 모델 찾기

Llama 4 모델과 무료로 채팅을 시작하거나 로컬 배포를 위해 가중치를 다운로드하세요.