Llama 4 Maverick

400Bパラメータ、128エキスパート - Meta 最高性能のオープンモデル

Llama 4 Maverick は Meta のフラッグシップ MoE モデルです。400Bの総パラメータを128エキスパートでルーティングし、トークンあたり17Bのみアクティブにしながら、主要ベンチマークで GPT-4o を上回るフロンティアクラスの性能を完全オープンウェイトで実現しています。

モデルバリエーション

指示チューニング済みモデルとベースモデル

チャットや複雑なタスクに最適化された指示チューニング済みバリアント、またはファインチューニングや研究向けのベースモデルから選べます。

128エキスパート MoE アーキテクチャ

総パラメータ400B、トークンあたり17Bアクティブ

Maverick は Scout の16エキスパートから128エキスパートにスケールアップし、400Bの総パラメータを持ちながらトークンあたり17Bのアクティブフットプリントを維持しています。これにより推論、コーディング、マルチモーダル能力が大幅に向上しています。

このサイトのデフォルトチャットモデルです。最高品質が求められるタスクに最適:複雑な推論、コード生成、マルチモーダル分析、リサーチの統合。

指示チューニング済み

Maverick Instruct

会話 AI、複雑な推論、コード生成に最適化

RLHF で指示追従とマルチターン対話向けにファインチューニング済み

利用可能

事前学習済み

Maverick Base

ファインチューニングや特化用途向けの基盤 MoE モデル

128エキスパートルーティングで多様なマルチモーダルデータを事前学習

利用可能

機能

オープンウェイトモデルでフロンティア性能を実現

Llama 4 Maverick は128エキスパート MoE の効率性に、高度な推論、強力なコーディング、ネイティブマルチモーダル理解を組み合わせています。すべてトークンあたり17Bアクティブパラメータで動作します。

128エキスパート MoE

128のエキスパートプールから各トークンを専門エキスパートにルーティングします。400Bの総パラメータがトークンあたり17Bの推論コストでフロンティア品質を実現します。

高度な推論

MMLU Pro(80.5%)と GPQA Diamond(69.8%)で高い性能を発揮。複雑な推論タスクでプロプライエタリモデルと競争力があります。

コード生成

コーディングベンチマークで GPT-4o を上回ります。ネイティブの関数呼び出しでエージェントワークフローと自律的なコード実行が可能です。

1Mトークンのコンテキスト

長文ドキュメント、コードベース、長時間の会話を処理できます。ほとんどの本番ユースケースに十分な容量です。

ネイティブマルチモーダル

早期融合アーキテクチャでテキストと画像をネイティブに一緒に処理します。スクリーンショット、図表、ドキュメントをテキストと併せて分析できます。

多言語対応

複数言語で高い性能を発揮。文化的コンテキストの理解を備え、グローバルなアプリケーションに対応します。

主なハイライト

Maverick が際立つ理由

Maverick は複数のベンチマークカテゴリで GPT-4o を一貫して上回る初のオープンウェイトモデルです。

ベンチマークハイライト

  • MMLU Pro 80.5% - フロンティアプロプライエタリモデルと競争力あり
  • GPQA Diamond 69.8% - 強力な科学的推論
  • MMMU 73.4% - 優れたマルチモーダル理解
  • コーディングベンチマークで GPT-4o を上回る
  • Arena ELO でトップクラスのモデルと競争力あり

技術仕様

  • 総パラメータ400B、トークンあたり17Bアクティブ
  • MoE アーキテクチャで128エキスパート
  • 1Mトークンのコンテキストウィンドウ
  • ネイティブマルチモーダル(テキスト+画像)
  • Llama 3.1 互換ライセンス

性能

オープンウェイト MoE モデルでフロンティア品質を実現

Llama 4 Maverick は MMLU Pro で80.5%、MMMU で73.4%を達成し、トークンあたり17Bパラメータのみアクティブにしながら複数のベンチマークで GPT-4o を上回ります。

Maverick はオープンウェイトモデルが最高のプロプライエタリモデルと競争できることを実証しています。128エキスパートアーキテクチャが推論、コーディング、マルチモーダルタスクで一貫した高品質を実現します。

Llama 4 Maverick 性能比較チャート

MMLU Pro 80.5% - フロンティアクラスの知識と推論

GPQA Diamond 69.8% - 強力な科学的推論

MMMU 73.4% - 優れたマルチモーダル理解

コーディングベンチマークで GPT-4o を上回る

総400Bから17Bアクティブパラメータ(128エキスパート)

ベンチマーク比較

Maverick vs Scout と前世代モデル

Maverick の128エキスパートアーキテクチャは、Scout と Llama 3.1 に対して全カテゴリで大幅な改善を実現しています。

Benchmark
Llama 4 Maverick
128エキスパート
注目
Llama 4 Scout
16エキスパート
Llama 3.1 70B
Dense
GPT-4o
プロプライエタリ
MMLU Pro
知識と推論
80.5%74.3%66.4%78.4%
GPQA Diamond
科学知識
69.8%57.2%46.7%53.6%
LiveCodeBench v5
コーディング
43.4%32.8%28.5%37.0%
MMMU
マルチモーダル
73.4%69.4%-69.1%
Context Window
最大トークン数
1M10M128K128K
Total Parameters
モデルサイズ
400B109B70B-
Active Parameters
トークンあたり
17B17B70B-

データは Meta 公式モデルカードおよび独立評価に基づきます。

128エキスパートスケール

400Bの容量を17Bの推論コストで

Maverick の128エキスパート MoE アーキテクチャは Scout の16エキスパートから大幅にスケールアップしています。各トークンが専門エキスパートにルーティングされ、400Bパラメータの知識にアクセスしながらフォワードパスあたり17Bのみアクティブにします。

  • 128エキスパート vs Scout の16 - 8倍の専門化
  • 総パラメータ400B vs Scout の109B
  • Scout と同じトークンあたり17Bのアクティブパラメータコスト
Llama 4 Maverick 128-expert MoE architecture

マルチモーダル

ネイティブなテキストと画像の理解

Maverick は早期融合アーキテクチャを使用し、テキストと画像をネイティブに一緒に処理します。視覚理解が別モジュールとして後付けされたのではなく、モデルの基盤から組み込まれています。

  • MMMU マルチモーダルベンチマークで73.4%
  • ネイティブマルチモーダル処理のための早期融合アーキテクチャ
  • スクリーンショット、図表、チャート、ドキュメントを分析
Llama 4 Maverick multimodal capabilities

始める

Llama 4 Maverick を今すぐ試す

すぐにチャットを始めるか、セルフホスト用に重みをダウンロードできます。

ダウンロードとデプロイ

セルフホストデプロイ

自社インフラへのデプロイ用に公式モデルの重みをダウンロードできます。

Llama 4 ファミリー

Llama 4 の全ラインナップを見る

Maverick は Meta のフラッグシップオープンモデルです。Scout と比較したり、他のフロンティアモデルとの違いを確認できます。

Llama 4 Scout

10Mコンテキストウィンドウ特化モデル

比較する

Llama 4 全モデル

ファミリー全体の概要

すべて見る

Llama 4 vs Kimi K2.6

Maverick vs Moonshot の1Tモデル

比較する

Llama 4 vs Qwen 3.6

Meta vs Alibaba の最新モデル

比較する

Llama 4 vs DeepSeek V4

MoE アーキテクチャ対決

比較する

Llama 4 vs MiniMax M2.7

スケール vs コスト効率

比較する

始める

Llama 4 Maverick を試してみませんか?

無料ですぐにチャットを始められます。Maverick はこのサイトのデフォルトモデルです - セットアップ不要。