Llama 4 Scout

1,000万トークンのコンテキスト - オープンモデル史上最長のウィンドウ

Llama 4 Scout は Meta の長文コンテキスト特化モデルです。総パラメータ109B、16エキスパートで1トークンあたり17Bアクティブ、10Mトークンのコンテキストウィンドウにより、コードベース全体、複数ドキュメントのリサーチライブラリ、長時間の会話履歴を一度の呼び出しで処理できます。

モデルバリエーション

指示チューニング済みモデルとベースモデル

チャットや長文コンテキストタスクに最適化された指示チューニング済みバリアント、またはファインチューニングやカスタム用途向けのベースモデルから選べます。

Mixture-of-Experts アーキテクチャ

総パラメータ109B、トークンあたり17Bアクティブ

Llama 4 Scout は16エキスパートのスパース MoE 設計を採用し、フォワードパスごとに17Bパラメータをアクティブにします。最大の特徴は1,000万トークンのコンテキストウィンドウで、公開モデルとして最長です。

大量のテキスト処理が必要なタスクに最適です。コードベース全体、複数ドキュメント分析、長い研究論文、長時間の会話履歴などに対応します。

指示チューニング済み

Scout Instruct

会話 AI と長文コンテキストタスクに最適化

指示追従、マルチターン対話、超長文入力の処理向けにファインチューニング済み

利用可能

事前学習済み

Scout Base

ファインチューニングや特化用途向けの基盤 MoE モデル

16エキスパートルーティングで多様なマルチモーダルデータを事前学習

利用可能

機能

大規模コンテキストとマルチモーダル理解のために設計

Llama 4 Scout は前例のない10Mトークンのコンテキストウィンドウに、MoE の効率性、ネイティブマルチモーダル対応、強力な推論能力を組み合わせています。

10Mトークンのコンテキストウィンドウ

公開モデルとして最長のコンテキストウィンドウです。コードベース全体、複数ドキュメントのリサーチライブラリ、長時間の会話を一度の呼び出しで処理できます。

MoE の効率性

109Bプールの16エキスパートから、トークンあたり17Bパラメータのみをアクティブにします。密なモデルの数分の一の計算コストで高い性能を発揮します。

大規模コード分析

リポジトリ全体をコンテキストに読み込み、ファイル横断の分析、依存関係の追跡、大規模リファクタリングに対応します。

エージェントワークフロー

ネイティブの関数呼び出しとツール使用をサポートし、自律エージェントを実現します。ファインチューニングなしで複数ツールを連携するワークフローを構築できます。

多言語対応

複数言語で高い性能を発揮し、グローバルなアプリケーション向けに文化的コンテキストも理解します。

ネイティブマルチモーダル

早期融合アーキテクチャでテキストと画像を一緒に処理します。スクリーンショット、図表、ドキュメントをテキストと併せて分析できます。

主なハイライト

Scout のコンテキストウィンドウが重要な理由

10Mトークンのコンテキストウィンドウは、1回のモデル呼び出しで可能なことを根本的に変えます。

10Mトークンに収まるもの

  • 中規模コードベース全体(数百ファイル、5万行以上)
  • 複数の研究論文や書籍1冊分
  • 数時間分の会議録や会話履歴
  • 複雑なシステムの完全なドキュメントセット
  • Needle-in-a-Haystack テストで8Mトークンまで95%以上の検索精度

技術仕様

  • 総パラメータ109B、トークンあたり17Bアクティブ
  • MoE アーキテクチャで16エキスパート
  • 10Mトークンのコンテキストウィンドウ
  • ネイティブマルチモーダル(テキスト+画像)
  • Llama 3.1 互換ライセンス

性能

競争力のある推論を備えた長文コンテキスト特化モデル

Llama 4 Scout は標準ベンチマークで高い性能を発揮しつつ、長文ドキュメントタスク向けに他に類を見ない10Mトークンのコンテキストウィンドウを提供します。

Scout は大量のコンテキスト処理が必要なタスクに最適化されています。ベンチマークスコアでは Maverick がリードしますが、Scout の10Mコンテキストウィンドウは長文ドキュメントワークフローにおいて明確な選択肢です。

Llama 4 Scout 性能比較チャート

10Mトークンのコンテキストウィンドウ - オープンモデル最長

8Mトークンまで95%以上の検索精度

総109Bから17Bアクティブパラメータ(16エキスパート)

アクティブパラメータ数が2〜3倍のモデルと競争力あり

テキストと画像入力のネイティブマルチモーダル対応

ベンチマーク比較

Scout vs Maverick と Llama 4 ファミリー

Scout は一部のベンチマークスコアを犠牲にして、圧倒的なコンテキストウィンドウの優位性を実現しています。

Benchmark
Llama 4 Scout
16エキスパート
注目
Llama 4 Maverick
128エキスパート
Llama 3.1 70B
Dense
MMLU Pro
知識と推論
74.3%80.5%66.4%
GPQA Diamond
科学知識
57.2%69.8%46.7%
LiveCodeBench v5
コーディング
32.8%43.4%28.5%
MMMU
マルチモーダル
69.4%73.4%-
Context Window
最大トークン数
10M1M128K
Total Parameters
モデルサイズ
109B400B70B
Active Parameters
トークンあたり
17B17B70B

データは Meta 公式モデルカードおよび独立評価に基づきます。

長文コンテキスト

10Mトークン:コードベース全体を一度に処理

Scout の10Mトークンコンテキストウィンドウは公開モデルとして最長です。リポジトリ全体、複数ドキュメントのリサーチセット、数時間分のトランスクリプトを1つのコンテキストに読み込み、包括的な分析が可能です。

  • Needle-in-a-Haystack テストで8Mトークンまで95%以上の検索精度
  • 10Mトークンの上限でも89%の精度
  • 数百ファイル、5万行以上のコードを同時に処理
Llama 4 Scout MoE architecture

MoE アーキテクチャ

109Bの容量を17Bの推論コストで

Scout の16エキスパート MoE アーキテクチャは、トークンあたり17Bパラメータのみをアクティブにしつつ、はるかに大きなモデルの表現力を維持します。シングルノードでのデプロイが現実的でありながら、高い性能を発揮します。

  • 16エキスパート、フォワードパスあたり17Bアクティブパラメータ
  • Maverick と同じアクティブパラメータ数で、総メモリは少なく
  • シングルノードデプロイに適した設計
Llama 4 Scout 10M context window

始める

Llama 4 Scout を今すぐ試す

すぐにチャットを始めるか、セルフホスト用に重みをダウンロードできます。

ダウンロードとデプロイ

セルフホストデプロイ

自社インフラへのデプロイ用に公式モデルの重みをダウンロードできます。

Llama 4 ファミリー

Llama 4 の全ラインナップを見る

Scout は Meta の Llama 4 ファミリーの一員です。Maverick と比較したり、他のオープンモデルとの違いを確認できます。

Llama 4 Maverick

128エキスパートの400Bフラッグシップ MoE

比較する

Llama 4 全モデル

ファミリー全体の概要

すべて見る

Llama 4 vs Kimi K2.6

Scout/Maverick vs Moonshot の1Tモデル

比較する

Llama 4 vs Qwen 3.6

Meta vs Alibaba の最新モデル

比較する

Llama 4 vs DeepSeek V4

MoE アーキテクチャ対決

比較する

Llama 4 vs MiniMax M2.7

コンテキスト vs コスト効率

比較する

始める

Llama 4 Scout を試してみませんか?

無料ですぐにチャットを始めるか、セルフホスト用にモデルをダウンロードできます。10Mトークンのコンテキストウィンドウが待っています。