Llama 4 Maverick

400B 파라미터, 128개 전문가 - Meta의 가장 강력한 오픈 모델

Llama 4 Maverick은 Meta의 플래그십 MoE 모델입니다. 128개 전문가를 통해 라우팅되는 총 400B 파라미터에서 토큰당 17B만 활성화하여, 완전한 오픈 웨이트를 유지하면서 주요 벤치마크에서 GPT-4o를 능가하는 프론티어급 성능을 제공합니다.

모델 변형

인스트럭션 튜닝 모델과 베이스 모델

채팅 및 복잡한 작업에 최적화된 인스트럭션 튜닝 버전과, 파인튜닝 및 연구를 위한 베이스 모델 중 선택하세요.

128개 전문가 MoE 아키텍처

총 400B 파라미터, 토큰당 17B 활성

Maverick은 Scout의 16개에서 128개 전문가로 확장하여, 토큰당 동일한 17B 활성 풋프린트를 유지하면서 총 400B 파라미터를 갖추고 있습니다. 이를 통해 추론, 코딩, 멀티모달 능력이 크게 향상됩니다.

이 사이트의 기본 채팅 모델입니다. 최고 품질이 필요한 작업에 적합합니다: 복잡한 추론, 코드 생성, 멀티모달 분석, 연구 종합.

인스트럭션 튜닝

Maverick Instruct

대화형 AI, 복잡한 추론, 코드 생성에 최적화

지시 따르기 및 멀티턴 대화를 위해 RLHF로 파인튜닝

지금 이용 가능

사전 학습

Maverick Base

파인튜닝 및 특수 애플리케이션을 위한 기반 MoE 모델

128개 전문가 라우팅으로 다양한 멀티모달 데이터에 사전 학습

지금 이용 가능

기능

오픈 웨이트 모델의 프론티어 성능

Llama 4 Maverick은 128개 전문가 MoE 효율성에 고급 추론, 강력한 코딩, 네이티브 멀티모달 이해를 결합합니다 - 모두 토큰당 17B 활성 파라미터로 구현됩니다.

128개 전문가 MoE

128개 풀에서 전문화된 전문가를 통해 각 토큰을 라우팅합니다. 총 400B 파라미터가 토큰당 17B 추론 비용으로 프론티어 품질을 제공합니다.

고급 추론

MMLU Pro (80.5%) 및 GPQA Diamond (69.8%)에서 강력한 성능을 보입니다. 복잡한 추론 작업에서 독점 모델과 경쟁합니다.

코드 생성

코딩 벤치마크에서 GPT-4o를 능가합니다. 네이티브 함수 호출로 에이전틱 워크플로와 자율 코드 실행이 가능합니다.

1M 토큰 컨텍스트

긴 문서, 코드베이스, 장시간 대화를 처리합니다. 대부분의 프로덕션 사용 사례에 충분합니다.

네이티브 멀티모달

얼리 퓨전 아키텍처로 텍스트와 이미지를 네이티브로 함께 처리합니다. 스크린샷, 다이어그램, 문서를 텍스트와 함께 분석하세요.

다국어 지원

여러 언어에서 강력한 성능을 발휘합니다. 문화적 맥락 이해와 함께 글로벌 애플리케이션을 위해 설계되었습니다.

주요 하이라이트

Maverick이 돋보이는 이유

Maverick은 여러 벤치마크 카테고리에서 GPT-4o를 일관되게 능가하는 최초의 오픈 웨이트 모델입니다.

벤치마크 하이라이트

  • MMLU Pro 80.5% - 프론티어 독점 모델과 경쟁
  • GPQA Diamond 69.8% - 강력한 과학적 추론
  • MMMU 73.4% - 우수한 멀티모달 이해
  • 코딩 벤치마크에서 GPT-4o 능가
  • 최상위 모델과 경쟁하는 Arena ELO

기술 사양

  • 총 400B 파라미터, 토큰당 17B 활성
  • MoE 아키텍처에 128개 전문가
  • 1M 토큰 컨텍스트 윈도우
  • 네이티브 멀티모달 (텍스트 + 이미지)
  • Llama 3.1 호환 라이선스

성능

오픈 웨이트 MoE 모델의 프론티어 품질

Llama 4 Maverick은 MMLU Pro 80.5%, MMMU 73.4%를 달성하며, 토큰당 17B 파라미터만 활성화하면서 여러 벤치마크에서 GPT-4o를 능가합니다.

Maverick은 오픈 웨이트 모델이 최고의 독점 모델과 경쟁할 수 있음을 보여줍니다. 128개 전문가 아키텍처가 추론, 코딩, 멀티모달 작업 전반에서 일관된 우수성을 제공합니다.

Llama 4 Maverick 성능 비교 차트

MMLU Pro 80.5% - 프론티어급 지식 및 추론

GPQA Diamond 69.8% - 강력한 과학적 추론

MMMU 73.4% - 우수한 멀티모달 이해

코딩 벤치마크에서 GPT-4o 능가

총 400B에서 17B 활성 파라미터 (128개 전문가)

벤치마크 비교

Maverick vs Scout 및 이전 세대

Maverick의 128개 전문가 아키텍처는 모든 카테고리에서 Scout와 Llama 3.1 대비 크게 향상된 성능을 보여줍니다.

Benchmark
Llama 4 Maverick
128개 전문가
주요 모델
Llama 4 Scout
16개 전문가
Llama 3.1 70B
밀집 모델
GPT-4o
독점 모델
MMLU Pro
지식 및 추론
80.5%74.3%66.4%78.4%
GPQA Diamond
과학 지식
69.8%57.2%46.7%53.6%
LiveCodeBench v5
코딩
43.4%32.8%28.5%37.0%
MMMU
멀티모달
73.4%69.4%-69.1%
Context Window
최대 토큰
1M10M128K128K
Total Parameters
모델 크기
400B109B70B-
Active Parameters
토큰당
17B17B70B-

Meta 공식 모델 카드 및 독립 평가 데이터 기반.

128개 전문가 규모

400B 용량을 17B 추론 비용으로

Maverick의 128개 전문가 MoE 아키텍처는 Scout의 16개 전문가에서 크게 확장된 것입니다. 각 토큰이 전문화된 전문가로 라우팅되어, 순전파당 17B만 활성화하면서 400B 파라미터의 지식에 접근할 수 있습니다.

  • Scout의 16개 대비 128개 전문가 - 8배 더 많은 전문화
  • Scout의 109B 대비 총 400B 파라미터
  • Scout와 동일한 토큰당 17B 활성 파라미터 비용
Llama 4 Maverick 128-expert MoE architecture

멀티모달

네이티브 텍스트 및 이미지 이해

Maverick은 얼리 퓨전 아키텍처를 사용하여 텍스트와 이미지를 네이티브로 함께 처리합니다. 시각적 이해가 별도 모듈로 추가된 것이 아니라 모델에 처음부터 내장되어 있습니다.

  • MMMU 멀티모달 벤치마크 73.4%
  • 네이티브 멀티모달 처리를 위한 얼리 퓨전 아키텍처
  • 스크린샷, 다이어그램, 차트, 문서 분석
Llama 4 Maverick multimodal capabilities

시작하기

지금 Llama 4 Maverick을 사용해 보세요

바로 채팅을 시작하거나 셀프 호스팅 배포를 위해 가중치를 다운로드하세요.

다운로드 및 배포

셀프 호스팅 배포

인프라에 배포하기 위한 공식 모델 가중치를 다운로드하세요.

Llama 4 패밀리

Llama 4 전체 라인업 살펴보기

Maverick은 Meta의 플래그십 오픈 모델입니다. Scout와 비교하고 다른 프론티어 모델과의 차이를 확인하세요.

Llama 4 Scout

1,000만 토큰 컨텍스트 윈도우 전문 모델

비교하기

Llama 4 모델 전체

패밀리 전체 개요

전체 보기

Llama 4 vs Kimi K2.6

Maverick vs Moonshot의 1T 모델

비교하기

Llama 4 vs Qwen 3.6

Meta vs Alibaba 최신 모델

비교하기

Llama 4 vs DeepSeek V4

MoE 아키텍처 대결

비교하기

Llama 4 vs MiniMax M2.7

규모 vs 비용 효율성

비교하기

시작하기

Llama 4 Maverick을 사용해 볼 준비가 되셨나요?

무료로 바로 채팅을 시작하세요. Maverick은 이 사이트의 기본 모델입니다 - 설정이 필요 없습니다.