全モデル
用途に合った Llama 4 を選ぶ
Scout と Maverick はそれぞれ異なるシナリオに最適化されています。Scout は長文コンテキストタスク、Maverick は最高品質に特化しています。
Llama 4 Scout
10Mコンテキストウィンドウ - 長文コンテキスト特化モデル
16エキスパートで総パラメータ109B、トークンあたり17Bアクティブ。最大の特徴は1,000万トークンのコンテキストウィンドウで、公開モデルとして最長です。
コードベース全体、複数ドキュメントのリサーチセット、非常に長い会話履歴を一度の呼び出しで処理する必要がある場合に Scout を選んでください。
Llama 4 Maverick
128エキスパート、400Bパラメータ - 品質フラッグシップ
128エキスパートで総パラメータ400B、トークンあたり17Bアクティブ。主要ベンチマークで GPT-4o を上回ります。このサイトのデフォルトチャットモデルです。
推論、コーディング、マルチモーダル分析、複雑なタスク完了で最高品質が必要な場合に Maverick を選んでください。
共通機能
Llama 4 の両モデルでできること
Scout と Maverick は Meta の MoE アーキテクチャに基づく共通の機能セットを備えています。
ネイティブマルチモーダル
両モデルとも早期融合アーキテクチャでテキストと画像をネイティブに処理します。別途エンコーダーやパイプラインは不要です。
MoE の効率性
両モデルともトークンあたり17Bパラメータのみアクティブにします。Scout は16エキスパート(総109B)、Maverick は128エキスパート(総400B)を使用します。
関数呼び出し
両モデルに組み込みの関数呼び出し機能があり、エージェントワークフローを実現します。ツール使用にファインチューニングは不要です。
拡張コンテキスト
Scout:10Mトークン。Maverick:1Mトークン。どちらも前世代の制限を大幅に超えています。
多言語対応
両モデルとも強力な多言語サポートを備え、グローバルなアプリケーションに対応します。
オープンウェイト
両モデルとも Llama 3.1 互換ライセンスで完全オープンウェイトです。どこにでもデプロイでき、自由に改変できます。
クイック選択ガイド
どちらのモデルを選ぶべき?
主な用途に合わせて適切な Llama 4 バリアントを選びましょう。
Scout を選ぶ場合
- 非常に長いドキュメントの処理が必要(10Mトークン)
- 数百ファイルにわたるコードベース全体の分析
- 複数ドキュメントのリサーチと統合
- 長時間の会話履歴
- メモリ要件が低い方がよい(総109B vs 400B)
Maverick を選ぶ場合
- 最高品質が最優先
- 複雑な推論と科学的タスク
- コード生成とデバッグ
- マルチモーダル分析(スクリーンショット、図表)
- ベンチマーク性能が最も重要なタスク
性能
完全なベンチマーク比較
Scout はコンテキスト長に最適化、Maverick は品質に最適化。どちらも設計目標に対して高い性能を発揮します。
Maverick:MMLU Pro 80.5%、MMMU 73.4%、コーディングで GPT-4o 超え
Scout:10Mトークンのコンテキスト、8Mトークンまで95%以上の検索精度
両モデル:17Bアクティブパラメータ、ネイティブマルチモーダル、関数呼び出し
両モデル:Llama 3.1 互換ライセンスでオープンウェイト
完全比較
Scout vs Maverick 並列比較
推論、コーディング、マルチモーダル、デプロイメント指標の完全なベンチマーク結果です。
| Benchmark | Maverick 128エキスパート フラッグシップ | Scout 16エキスパート 長文コンテキスト |
|---|---|---|
MMLU Pro 知識と推論 | 80.5% | 74.3% |
GPQA Diamond 科学知識 | 69.8% | 57.2% |
LiveCodeBench v5 コーディング | 43.4% | 32.8% |
MMMU マルチモーダル | 73.4% | 69.4% |
Context Window 最大トークン数 | 1M | 10M |
Total Parameters モデルサイズ | 400B | 109B |
Active Parameters トークンあたり | 17B | 17B |
Number of Experts MoE ルーティング | 128 | 16 |
データは Meta 公式モデルカードおよび独立評価に基づきます。
Maverick
Maverick:品質が最優先のとき
Maverick の128エキスパートアーキテクチャはフロンティアクラスの性能を実現します。主要ベンチマークで GPT-4o を上回り、このサイトのデフォルトモデルとして選ばれている理由があります。複雑な推論、コーディング、マルチモーダルタスクを難なくこなします。
- MMLU Pro 80.5% - フロンティアの知識と推論
- コーディングベンチマークで GPT-4o を上回る
- 128エキスパートで総パラメータ400B
今すぐ試す
Llama 4 でチャットを始める
チャットインターフェースで両モデルをすぐに試せます。
ダウンロード
モデルの重みを取得
どちらの Llama 4 バリアントの公式重みもダウンロードできます。
始める
あなたに合った Llama 4 モデルを見つけよう
どちらの Llama 4 モデルでも無料でチャットを始められます。ローカルデプロイ用に重みのダウンロードも可能です。