Llama 4 モデル

2つのモデル、1つのファミリー - 長文コンテキストからフロンティア品質まで

Llama 4 ファミリーは2つの MoE モデルで構成されています。大規模コンテキスト(10Mトークン)の Scout と、最高品質(128エキスパート、400Bパラメータ)の Maverick。どちらもトークンあたり17Bアクティブパラメータとネイティブマルチモーダルに対応しています。

全モデル

用途に合った Llama 4 を選ぶ

Scout と Maverick はそれぞれ異なるシナリオに最適化されています。Scout は長文コンテキストタスク、Maverick は最高品質に特化しています。

Llama 4 Scout

10Mコンテキストウィンドウ - 長文コンテキスト特化モデル

16エキスパートで総パラメータ109B、トークンあたり17Bアクティブ。最大の特徴は1,000万トークンのコンテキストウィンドウで、公開モデルとして最長です。

コードベース全体、複数ドキュメントのリサーチセット、非常に長い会話履歴を一度の呼び出しで処理する必要がある場合に Scout を選んでください。

Llama 4 Maverick

128エキスパート、400Bパラメータ - 品質フラッグシップ

128エキスパートで総パラメータ400B、トークンあたり17Bアクティブ。主要ベンチマークで GPT-4o を上回ります。このサイトのデフォルトチャットモデルです。

推論、コーディング、マルチモーダル分析、複雑なタスク完了で最高品質が必要な場合に Maverick を選んでください。

長文コンテキスト

Llama 4 Scout

総109B、17Bアクティブ、16エキスパート。10Mトークンのコンテキストウィンドウ。

最適な用途:コードベース全体、複数ドキュメント分析、長い研究論文、長時間の会話。

利用可能

フラッグシップ

Llama 4 Maverick

総400B、17Bアクティブ、128エキスパート。ベンチマークで GPT-4o 超え。

最適な用途:複雑な推論、コード生成、マルチモーダルタスク、リサーチの統合。

利用可能

共通機能

Llama 4 の両モデルでできること

Scout と Maverick は Meta の MoE アーキテクチャに基づく共通の機能セットを備えています。

ネイティブマルチモーダル

両モデルとも早期融合アーキテクチャでテキストと画像をネイティブに処理します。別途エンコーダーやパイプラインは不要です。

MoE の効率性

両モデルともトークンあたり17Bパラメータのみアクティブにします。Scout は16エキスパート(総109B)、Maverick は128エキスパート(総400B)を使用します。

関数呼び出し

両モデルに組み込みの関数呼び出し機能があり、エージェントワークフローを実現します。ツール使用にファインチューニングは不要です。

拡張コンテキスト

Scout:10Mトークン。Maverick:1Mトークン。どちらも前世代の制限を大幅に超えています。

多言語対応

両モデルとも強力な多言語サポートを備え、グローバルなアプリケーションに対応します。

オープンウェイト

両モデルとも Llama 3.1 互換ライセンスで完全オープンウェイトです。どこにでもデプロイでき、自由に改変できます。

クイック選択ガイド

どちらのモデルを選ぶべき?

主な用途に合わせて適切な Llama 4 バリアントを選びましょう。

Scout を選ぶ場合

  • 非常に長いドキュメントの処理が必要(10Mトークン)
  • 数百ファイルにわたるコードベース全体の分析
  • 複数ドキュメントのリサーチと統合
  • 長時間の会話履歴
  • メモリ要件が低い方がよい(総109B vs 400B)

Maverick を選ぶ場合

  • 最高品質が最優先
  • 複雑な推論と科学的タスク
  • コード生成とデバッグ
  • マルチモーダル分析(スクリーンショット、図表)
  • ベンチマーク性能が最も重要なタスク

性能

完全なベンチマーク比較

Scout はコンテキスト長に最適化、Maverick は品質に最適化。どちらも設計目標に対して高い性能を発揮します。

Scout と Maverick の選択は、主なニーズが大規模コンテキストか最高品質かによって決まります。主要ベンチマークでの比較をご覧ください。

Llama 4 ファミリー性能比較

Maverick:MMLU Pro 80.5%、MMMU 73.4%、コーディングで GPT-4o 超え

Scout:10Mトークンのコンテキスト、8Mトークンまで95%以上の検索精度

両モデル:17Bアクティブパラメータ、ネイティブマルチモーダル、関数呼び出し

両モデル:Llama 3.1 互換ライセンスでオープンウェイト

完全比較

Scout vs Maverick 並列比較

推論、コーディング、マルチモーダル、デプロイメント指標の完全なベンチマーク結果です。

Benchmark
Maverick
128エキスパート
フラッグシップ
Scout
16エキスパート
長文コンテキスト
MMLU Pro
知識と推論
80.5%74.3%
GPQA Diamond
科学知識
69.8%57.2%
LiveCodeBench v5
コーディング
43.4%32.8%
MMMU
マルチモーダル
73.4%69.4%
Context Window
最大トークン数
1M10M
Total Parameters
モデルサイズ
400B109B
Active Parameters
トークンあたり
17B17B
Number of Experts
MoE ルーティング
12816

データは Meta 公式モデルカードおよび独立評価に基づきます。

Scout

Scout:コンテキスト長がすべてのとき

Scout の10Mトークンコンテキストウィンドウは他に類を見ません。コードベース全体、複数ドキュメントのリサーチセット、数時間分のトランスクリプトを一度の呼び出しで処理できます。非常に長い入力を扱うタスクなら、Scout が明確な選択肢です。

  • 10Mトークンのコンテキスト - オープンモデル最長
  • 8Mトークンまで95%以上の検索精度
  • 16エキスパートで総パラメータ109B
Llama 4 Scout - long context specialist

Maverick

Maverick:品質が最優先のとき

Maverick の128エキスパートアーキテクチャはフロンティアクラスの性能を実現します。主要ベンチマークで GPT-4o を上回り、このサイトのデフォルトモデルとして選ばれている理由があります。複雑な推論、コーディング、マルチモーダルタスクを難なくこなします。

  • MMLU Pro 80.5% - フロンティアの知識と推論
  • コーディングベンチマークで GPT-4o を上回る
  • 128エキスパートで総パラメータ400B
Llama 4 Maverick - frontier quality

ダウンロード

モデルの重みを取得

どちらの Llama 4 バリアントの公式重みもダウンロードできます。

Llama 4 ファミリー

各モデルの詳細と競合比較

各 Llama 4 バリアントの詳細を見たり、他のフロンティアオープンモデルとの比較を確認できます。

Llama 4 Scout

10Mコンテキストウィンドウ特化モデル

詳しく見る

Llama 4 Maverick

128エキスパートのフラッグシップモデル

詳しく見る

Llama 4 vs Kimi K2.6

Meta vs Moonshot の比較

比較する

Llama 4 vs Qwen 3.6

Meta vs Alibaba の比較

比較する

Llama 4 vs DeepSeek V4

MoE アーキテクチャ対決

比較する

Llama 4 vs MiniMax M2.7

スケール vs 効率性

比較する

始める

あなたに合った Llama 4 モデルを見つけよう

どちらの Llama 4 モデルでも無料でチャットを始められます。ローカルデプロイ用に重みのダウンロードも可能です。