モデルバリエーション
指示チューニング済みモデルとベースモデル
チャットや複雑なタスクに最適化された指示チューニング済みバリアント、またはファインチューニングや研究向けのベースモデルから選べます。
指示チューニング済み
Maverick Instruct
会話 AI、複雑な推論、コード生成に最適化
RLHF で指示追従とマルチターン対話向けにファインチューニング済み
事前学習済み
Maverick Base
ファインチューニングや特化用途向けの基盤 MoE モデル
128エキスパートルーティングで多様なマルチモーダルデータを事前学習
機能
オープンウェイトモデルでフロンティア性能を実現
Llama 4 Maverick は128エキスパート MoE の効率性に、高度な推論、強力なコーディング、ネイティブマルチモーダル理解を組み合わせています。すべてトークンあたり17Bアクティブパラメータで動作します。
128エキスパート MoE
128のエキスパートプールから各トークンを専門エキスパートにルーティングします。400Bの総パラメータがトークンあたり17Bの推論コストでフロンティア品質を実現します。
高度な推論
MMLU Pro(80.5%)と GPQA Diamond(69.8%)で高い性能を発揮。複雑な推論タスクでプロプライエタリモデルと競争力があります。
コード生成
コーディングベンチマークで GPT-4o を上回ります。ネイティブの関数呼び出しでエージェントワークフローと自律的なコード実行が可能です。
1Mトークンのコンテキスト
長文ドキュメント、コードベース、長時間の会話を処理できます。ほとんどの本番ユースケースに十分な容量です。
ネイティブマルチモーダル
早期融合アーキテクチャでテキストと画像をネイティブに一緒に処理します。スクリーンショット、図表、ドキュメントをテキストと併せて分析できます。
多言語対応
複数言語で高い性能を発揮。文化的コンテキストの理解を備え、グローバルなアプリケーションに対応します。
主なハイライト
Maverick が際立つ理由
Maverick は複数のベンチマークカテゴリで GPT-4o を一貫して上回る初のオープンウェイトモデルです。
ベンチマークハイライト
- MMLU Pro 80.5% - フロンティアプロプライエタリモデルと競争力あり
- GPQA Diamond 69.8% - 強力な科学的推論
- MMMU 73.4% - 優れたマルチモーダル理解
- コーディングベンチマークで GPT-4o を上回る
- Arena ELO でトップクラスのモデルと競争力あり
技術仕様
- 総パラメータ400B、トークンあたり17Bアクティブ
- MoE アーキテクチャで128エキスパート
- 1Mトークンのコンテキストウィンドウ
- ネイティブマルチモーダル(テキスト+画像)
- Llama 3.1 互換ライセンス
性能
オープンウェイト MoE モデルでフロンティア品質を実現
Llama 4 Maverick は MMLU Pro で80.5%、MMMU で73.4%を達成し、トークンあたり17Bパラメータのみアクティブにしながら複数のベンチマークで GPT-4o を上回ります。
Maverick はオープンウェイトモデルが最高のプロプライエタリモデルと競争できることを実証しています。128エキスパートアーキテクチャが推論、コーディング、マルチモーダルタスクで一貫した高品質を実現します。
MMLU Pro 80.5% - フロンティアクラスの知識と推論
GPQA Diamond 69.8% - 強力な科学的推論
MMMU 73.4% - 優れたマルチモーダル理解
コーディングベンチマークで GPT-4o を上回る
総400Bから17Bアクティブパラメータ(128エキスパート)
ベンチマーク比較
Maverick vs Scout と前世代モデル
Maverick の128エキスパートアーキテクチャは、Scout と Llama 3.1 に対して全カテゴリで大幅な改善を実現しています。
| Benchmark | Llama 4 Maverick 128エキスパート 注目 | Llama 4 Scout 16エキスパート | Llama 3.1 70B Dense | GPT-4o プロプライエタリ |
|---|---|---|---|---|
MMLU Pro 知識と推論 | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond 科学知識 | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 コーディング | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU マルチモーダル | 73.4% | 69.4% | - | 69.1% |
Context Window 最大トークン数 | 1M | 10M | 128K | 128K |
Total Parameters モデルサイズ | 400B | 109B | 70B | - |
Active Parameters トークンあたり | 17B | 17B | 70B | - |
データは Meta 公式モデルカードおよび独立評価に基づきます。
マルチモーダル
ネイティブなテキストと画像の理解
Maverick は早期融合アーキテクチャを使用し、テキストと画像をネイティブに一緒に処理します。視覚理解が別モジュールとして後付けされたのではなく、モデルの基盤から組み込まれています。
- MMMU マルチモーダルベンチマークで73.4%
- ネイティブマルチモーダル処理のための早期融合アーキテクチャ
- スクリーンショット、図表、チャート、ドキュメントを分析
始める
Llama 4 Maverick を今すぐ試す
すぐにチャットを始めるか、セルフホスト用に重みをダウンロードできます。
ダウンロードとデプロイ
セルフホストデプロイ
自社インフラへのデプロイ用に公式モデルの重みをダウンロードできます。
Llama 4 ファミリー
Llama 4 の全ラインナップを見る
Maverick は Meta のフラッグシップオープンモデルです。Scout と比較したり、他のフロンティアモデルとの違いを確認できます。
始める
Llama 4 Maverick を試してみませんか?
無料ですぐにチャットを始められます。Maverick はこのサイトのデフォルトモデルです - セットアップ不要。