モデルバリエーション
指示チューニング済みモデルとベースモデル
チャットや長文コンテキストタスクに最適化された指示チューニング済みバリアント、またはファインチューニングやカスタム用途向けのベースモデルから選べます。
指示チューニング済み
Scout Instruct
会話 AI と長文コンテキストタスクに最適化
指示追従、マルチターン対話、超長文入力の処理向けにファインチューニング済み
事前学習済み
Scout Base
ファインチューニングや特化用途向けの基盤 MoE モデル
16エキスパートルーティングで多様なマルチモーダルデータを事前学習
機能
大規模コンテキストとマルチモーダル理解のために設計
Llama 4 Scout は前例のない10Mトークンのコンテキストウィンドウに、MoE の効率性、ネイティブマルチモーダル対応、強力な推論能力を組み合わせています。
10Mトークンのコンテキストウィンドウ
公開モデルとして最長のコンテキストウィンドウです。コードベース全体、複数ドキュメントのリサーチライブラリ、長時間の会話を一度の呼び出しで処理できます。
MoE の効率性
109Bプールの16エキスパートから、トークンあたり17Bパラメータのみをアクティブにします。密なモデルの数分の一の計算コストで高い性能を発揮します。
大規模コード分析
リポジトリ全体をコンテキストに読み込み、ファイル横断の分析、依存関係の追跡、大規模リファクタリングに対応します。
エージェントワークフロー
ネイティブの関数呼び出しとツール使用をサポートし、自律エージェントを実現します。ファインチューニングなしで複数ツールを連携するワークフローを構築できます。
多言語対応
複数言語で高い性能を発揮し、グローバルなアプリケーション向けに文化的コンテキストも理解します。
ネイティブマルチモーダル
早期融合アーキテクチャでテキストと画像を一緒に処理します。スクリーンショット、図表、ドキュメントをテキストと併せて分析できます。
主なハイライト
Scout のコンテキストウィンドウが重要な理由
10Mトークンのコンテキストウィンドウは、1回のモデル呼び出しで可能なことを根本的に変えます。
10Mトークンに収まるもの
- 中規模コードベース全体(数百ファイル、5万行以上)
- 複数の研究論文や書籍1冊分
- 数時間分の会議録や会話履歴
- 複雑なシステムの完全なドキュメントセット
- Needle-in-a-Haystack テストで8Mトークンまで95%以上の検索精度
技術仕様
- 総パラメータ109B、トークンあたり17Bアクティブ
- MoE アーキテクチャで16エキスパート
- 10Mトークンのコンテキストウィンドウ
- ネイティブマルチモーダル(テキスト+画像)
- Llama 3.1 互換ライセンス
性能
競争力のある推論を備えた長文コンテキスト特化モデル
Llama 4 Scout は標準ベンチマークで高い性能を発揮しつつ、長文ドキュメントタスク向けに他に類を見ない10Mトークンのコンテキストウィンドウを提供します。
Scout は大量のコンテキスト処理が必要なタスクに最適化されています。ベンチマークスコアでは Maverick がリードしますが、Scout の10Mコンテキストウィンドウは長文ドキュメントワークフローにおいて明確な選択肢です。
10Mトークンのコンテキストウィンドウ - オープンモデル最長
8Mトークンまで95%以上の検索精度
総109Bから17Bアクティブパラメータ(16エキスパート)
アクティブパラメータ数が2〜3倍のモデルと競争力あり
テキストと画像入力のネイティブマルチモーダル対応
ベンチマーク比較
Scout vs Maverick と Llama 4 ファミリー
Scout は一部のベンチマークスコアを犠牲にして、圧倒的なコンテキストウィンドウの優位性を実現しています。
| Benchmark | Llama 4 Scout 16エキスパート 注目 | Llama 4 Maverick 128エキスパート | Llama 3.1 70B Dense |
|---|---|---|---|
MMLU Pro 知識と推論 | 74.3% | 80.5% | 66.4% |
GPQA Diamond 科学知識 | 57.2% | 69.8% | 46.7% |
LiveCodeBench v5 コーディング | 32.8% | 43.4% | 28.5% |
MMMU マルチモーダル | 69.4% | 73.4% | - |
Context Window 最大トークン数 | 10M | 1M | 128K |
Total Parameters モデルサイズ | 109B | 400B | 70B |
Active Parameters トークンあたり | 17B | 17B | 70B |
データは Meta 公式モデルカードおよび独立評価に基づきます。
長文コンテキスト
10Mトークン:コードベース全体を一度に処理
Scout の10Mトークンコンテキストウィンドウは公開モデルとして最長です。リポジトリ全体、複数ドキュメントのリサーチセット、数時間分のトランスクリプトを1つのコンテキストに読み込み、包括的な分析が可能です。
- Needle-in-a-Haystack テストで8Mトークンまで95%以上の検索精度
- 10Mトークンの上限でも89%の精度
- 数百ファイル、5万行以上のコードを同時に処理
MoE アーキテクチャ
109Bの容量を17Bの推論コストで
Scout の16エキスパート MoE アーキテクチャは、トークンあたり17Bパラメータのみをアクティブにしつつ、はるかに大きなモデルの表現力を維持します。シングルノードでのデプロイが現実的でありながら、高い性能を発揮します。
- 16エキスパート、フォワードパスあたり17Bアクティブパラメータ
- Maverick と同じアクティブパラメータ数で、総メモリは少なく
- シングルノードデプロイに適した設計
始める
Llama 4 Scout を今すぐ試す
すぐにチャットを始めるか、セルフホスト用に重みをダウンロードできます。
ダウンロードとデプロイ
セルフホストデプロイ
自社インフラへのデプロイ用に公式モデルの重みをダウンロードできます。
Llama 4 ファミリー
Llama 4 の全ラインナップを見る
Scout は Meta の Llama 4 ファミリーの一員です。Maverick と比較したり、他のオープンモデルとの違いを確認できます。
始める
Llama 4 Scout を試してみませんか?
無料ですぐにチャットを始めるか、セルフホスト用にモデルをダウンロードできます。10Mトークンのコンテキストウィンドウが待っています。