Llama 4 Scout

10 milyon token bağlam - herhangi bir açık modelde en uzun pencere

Llama 4 Scout, tek bir model çağrısının neler başarabileceğini yeniden tanımlar. Meta'nın uzman karışımı mimarisi üzerine, 109B toplam parametre ve token başına yalnızca 17B aktif ile inşa edilmiş, herhangi bir açık modelin en uzun bağlam penceresi olan 10 milyon token sunar. Yüzlerce dosya kapsayan bir kod tabanını, düzinelece makalelik tam bir araştırma kütüphanesini veya saatlerce toplantı transkripsiyonunu besleyin. Diğer modellerin parçalayıp özetlemenizi zorladığı yerde, Llama 4 Scout her şeyi aynı anda işler, parçalamanın yok edeceği belgeler arası ilişkileri ve ince bağlantıları korur.

Model varyantları

Talimat ayarlı ve temel modeller

Sohbet ve uzun bağlam görevleri için optimize edilmiş talimat ayarlı varyant veya ince ayar ve özel uygulamalar için temel model arasında seçim yapın.

Uzman Karışımı Mimarisi

109B toplam parametre, token başına 17B aktif

Llama 4 Scout, 16 uzmanlı seyrek MoE tasarımı kullanır, her ileri geçişte 17B parametre etkinleştirir. Öne çıkan özelliği, herhangi bir açık modelin en uzun bağlam penceresi olan 10 milyon token bağlam penceresidir.

Büyük miktarda metin işlemeyi gerektiren görevler için ideal: tüm kod tabanları, çok belgeli analiz, uzun araştırma makaleleri ve genişletilmiş konuşma geçmişleri.

Talimat ayarlı

Scout Instruct

Konuşmalı AI ve uzun bağlam görev tamamlama için optimize edilmiş

Talimatları takip etme, çok turlu diyalog ve çok uzun girdileri işleme için ince ayarlanmış

Şimdi mevcut

Önceden eğitilmiş

Scout Base

İnce ayar ve özel uygulamalar için temel MoE modeli

16 uzmanlı yönlendirme ile çeşitli çok modlu veriler üzerinde önceden eğitilmiş

Şimdi mevcut

Yetenekler

Llama 4 Scout'u uzun bağlam güçlüsü yapan nedir

Llama 4 Scout, benzersiz bir 10M token bağlam penceresini MoE verimliliği, yerel çok modlu destek ve güçlü akıl yürütme yetenekleriyle birleştirir. Her özellik, tek bir geçişte büyük bilgi hacimlerini işlemeyi talep eden görevler için tasarlanmıştır.

10M token bağlam penceresi

Herhangi bir açık modelin en uzun bağlam penceresi. Yüzlerce dosya kapsayan 50.000+ satırlık tüm kod tabanlarını, çok belgeli araştırma kütüphanelerini veya saatlerce konuşmayı tek bir çağrıda işleyin. İğne-kütle testleri, 8 milyon tokena kadar %95 erişim doğruluğunu, tam 10 milyon token sınırında %89 doğruluğu onaylar.

MoE verimliliği

16 uzman arasında 109B havuzdan token başına yalnızca 17B parametre etkinleştirir. Bu seyrek yönlendirme stratejisi, benzer toplam parametre sayılarına sahip yoğun modellerin bilgi işlem maliyetinin çok küçük bir kısmıyla güçlü performans sunar. Sonuç, bu kapasitedeki bir model için bekleyebileceğinizden daha az GPU'da pratik dağıtımdır.

Ölçekli kod analizi

Çapraz dosya analizi, bağımlılık takibi ve büyük ölçekli yeniden düzenleme görevleri için tüm depoları bağlama yükleyin. Llama 4 Scout, modüller arası fonksiyon çağrılarını izleyebilir, kullanılmayan import'ları belirleyebilir ve kod tabanınızın tam resmini aynı anda görerek mimari iyileştirmeler önerebilir.

Ajan iş akışları

Yerel fonksiyon çağırma ve araç kullanım desteği, ek ince ayar olmadan otonom ajanları sağlar. Birden çok aracı zincirleyen, veritabanlarını sorgulayan, API'leri çağıran ve sonuçları sırayla işleyen iş akışları oluşturun. Genişletilmiş bağlam penceresi, ajanların birçok etkileşim adımı boyunca zengin durum koruyabileceği anlamına gelir.

Çok dilli destek

Küresel uygulamalar için kültürel bağlam anlayışıyla birden fazla dilde güçlü performans. İster İngilizce, Çince, İspanyolca veya diğer desteklenen dillerde belgeler analiz ediyor olun, Llama 4 Scout tutarlı kaliteyi ve dilsel sınırlar boyunca nüanslı anlayışı korur.

Yerel çok modlu

Erken kaynaşma mimarisiyle metni ve görüntüleri birlikte işleyin. Ayrı görüntü işlem hatlarına ihtiyaç duymadan metinle birlikte ekran görüntülerini, diyagramları, grafikleri ve belgeleri analiz edin. Çok modlu yetenek, baştan sona modele yerleşiktir, görsel ve metinsel bilgi arasında sorunsuz akıl yürütme sağlar.

Önemli noktalar

Llama 4 Scout bağlam penceresi neden önemli

10M token bağlam penceresi, tek bir model çağrısıyla nelerin mümkün olduğunu değiştirir.

10M token'a neler sığar

  • Orta büyüklükteki bir kod tabanının tamamı (yüzlerce dosyada 50K+ satır)
  • Birden fazla araştırma makalesi veya bir kitabın tamamı
  • Saatlerce toplantı transkripsiyonu veya konuşma geçmişi
  • Karmaşık sistemler için tam dokümantasyon setleri
  • İğne-kütle testlerinde 8M tokenda %95+ erişim doğruluğu

Teknik özellikler

  • 109B toplam parametre, token başına 17B aktif
  • MoE mimarisinde 16 uzman
  • 10M token bağlam penceresi
  • Yerel çok modlu (metin + görüntü)
  • Llama 3.1 uyumlu lisans

Performans

Rekabetçi akıl yürütmeyle uzun bağlam uzmanı

Llama 4 Scout, standart kıyaslamalar genelinde güçlü performans sunarken, uzun belge görevleri için eşsiz 10M token bağlam penceresi sağlar.

Gerçek dünya kullanımında, Llama 4 Scout görevler büyük bilgi hacimlerini işlemeyi talep ettiğinde parlar. Geliştiriciler, kapsamlı kod incelemesi için tüm GitHub depolarını başarıyla yüklediklerini bildiriyor, araştırmacılar literatür sentezi için tam makale koleksiyonlarını besliyor, hukuk ekipleri madde karşılaştırması için tam sözleşme kütüphanelerini işliyor. Maverick ham kıyaslama puanlarında önde olsa da, Scout'un 10M bağlam penceresi, her şeyi aynı anda görmek, kısa istemlerde marjinal kalite kazançlarından daha değerli olduğu iş akışları için onu açık seçim yapar.

Llama 4 Scout performans karşılaştırma grafiği

10M token bağlam penceresi - herhangi bir açık modelin en uzun

8M tokenda %95+ erişim doğruluğu

109B toplamdan 17B aktif parametre (16 uzman)

Aktif parametre sayısının 2-3 katı modellerle rekabetçi

Metin ve görüntü girdileri için yerel çok modlu destek

Kıyaslama karşılaştırması

Scout vs Maverick ve Llama 4 ailesi

Scout, büyük bağlam penceresi avantajı için bazı ham kıyaslama performansını takas eder.

Benchmark
Llama 4 Scout
16 uzman
Öne Çıkan
Llama 4 Maverick
128 uzman
Llama 3.1 70B
Yoğun
MMLU Pro
Bilgi ve akıl yürütme
%74.3%80.5%66.4
GPQA Diamond
Bilimsel bilgi
%57.2%69.8%46.7
LiveCodeBench v5
Kodlama
%32.8%43.4%28.5
MMMU
Çok modlu
%69.4%73.4-
Bağlam Penceresi
Maksimum token
10M1M128K
Toplam Parametreler
Model boyutu
109B400B70B
Aktif Parametreler
Token başına
17B17B70B

Meta'nın resmi model kartından ve bağımsız değerlendirmelerden veriler.

Uzun Bağlam

10M token: Llama 4 Scout ile tüm kod tabanlarını işleyin

Llama 4 Scout'taki 10M token bağlam penceresi, herhangi bir açık modelin en uzunudur. Kapsamlı analiz için tüm depoları, çok belgeli araştırma setlerini veya saatlerce transkripsiyonu tek bir bağlama yükleyin, parçalama veya özetleme nedeniyle bilgi kaybetmeden.

  • İğne-kütle testlerinde 8M tokenda %95+ erişim doğruluğu
  • Tam 10M token sınırında güvenilir uzun menzilli erişim için %89 doğruluk
  • Yüzlerce dosyada 50K+ satır kodu aynı anda işleyin
  • Belgeleri bölmekten kaçınarak tam araştırma makalesi koleksiyonlarını analiz edin
  • Genişletilmiş çok turlu oturumlar boyunca tam konuşma geçmişi koruyun
Llama 4 Scout MoE architecture

MoE Mimarisi

Llama 4 Scout 109B kapasiteyi 17B maliyetle nasıl sunar

Llama 4 Scout'taki 16 uzmanlı MoE mimarisi, çok daha büyük bir modelin temsil kapasitesini korurken token başına yalnızca 17B parametre etkinleştirir. Bu, onu hala akıl yürütme, kodlama ve analiz görevleri genelinde güçlü performans sunarken tek bir düğümde dağıtmayı pratik hale getirir.

  • Verimli çıkarım için ileri geçiş başına 17B aktif parametreli 16 uzman
  • Önemli ölçüde daha düşük toplam bellekte Maverick ile aynı aktif parametre sayısı
  • Daha az GPU gereksinimiyle tek düğüm dağıtım senaryoları için pratik
  • Seyrek yönlendirme, her tokenın özelleşmiş uzman ilgisi aldığını sağlar
  • Benzer toplam parametreli yoğun modellere kıyasla daha düşük işletim maliyeti
Llama 4 Scout 10M context window

Çok Modlu

Llama 4 Scout'ta çok modlu yetenekler

Llama 4 Scout, metni ve görüntüleri yerel olarak birlikte işlemek için erken kaynaşma mimarisi kullanır. Görsel anlama, ayrı bir modül olarak eklenmek yerine baştan sona modele yerleşiktir, aynı büyük bağlam penceresi içinde her iki modda sorunsuz akıl yürütme sağlar.

  • Güçlü görsel akıl yürütme için MMMU çok modlu kıyaslamasında %69.4
  • Erken kaynaşma mimarisi, görüntüleri ve metni birleşik bir akışta işler
  • Kodla birlikte ekran görüntülerini, diyagramları, akış diyagramlarını ve teknik çizimleri analiz edin
  • Tam 10M token bağlam penceresiyle görsel belge analizini birleştirin
  • Ayrı görüntü işlem hattı gerekmez, dağıtım karmaşıklığını azaltır

Başlangıç

Llama 4 Scout'u şimdi dene

Anında sohbet etmeye başla veya kendi kendine barındırılan dağıtım için ağırlıkları indir.

İndir ve dağıt

Kendi kendine barındırılan dağıtım

Altyapınızda dağıtım için resmi model ağırlıklarını indirin.

SSS

Llama 4 Scout hakkında sıkça sorulan sorular

Geliştiricilerin ve araştırmacıların Llama 4 Scout'u çalıştırma, dağıtma ve en iyi şekilde kullanma hakkında sorduğu en yaygın soruların yanıtları.

Llama 4 Scout'u yerel olarak çalıştırmak için ne kadar VRAM gerekiyor?

Llama 4 Scout'un tam hassasiyet versiyonunu çalıştırmak yaklaşık 220 GB VRAM gerektirir, bu da tipik olarak en az iki A100 80 GB kartlı çoklu GPU kurulumu anlamına gelir. Kuantize versiyonlar bunu önemli ölçüde azaltabilir. INT8 kuantizasyon gereksinimi yaklaşık 110 GB'a indirir, INT4 kuantizasyon yaklaşık 55 GB'a sığabilir, bu da birden çok GPU'lu üst düzey tüketici kurulumlarında erişilebilir hale getirir.

Llama 4 Scout bir GitHub deposunun tamamını işleyebilir mi?

Evet. Llama 4 Scout'taki 10 milyon token bağlam penceresi, yüzlerce dosyada yaklaşık 50.000 satır kodu aynı anda tutabilir. Bu, çoğu orta büyüklükteki deponun tamamen tek bir bağlam çağrısına sığdığı anlamına gelir, parçalama veya dosyalar arasında bağlam kaybetmeden çapraz dosya analizi, bağımlılık takibi ve mimari inceleme sağlar.

Llama 4 Scout ve Maverick arasındaki fark nedir?

Llama 4 Scout, 10M token penceresi ve 16 uzmanla (109B toplam parametre) uzun bağlam görevleri için optimize edilmiştir. Maverick, 128 uzman ve 400B toplam parametreyle ham kaliteyi önceliklendirir ancak 1M token bağlam penceresi vardır. İkisi de token başına 17B parametre etkinleştirir. Büyük bağlam gerektiğinde Scout'u, maksimum kıyaslama performansı gerektiğinde Maverick'i seçin.

Llama 4 Scout ticari olarak ücretsiz kullanılabilir mi?

Evet. Llama 4 Scout, ticari kullanıma izin veren Llama 3.1 uyumlu lisans altında yayınlanmıştır. Üretim uygulamalarında dağıtabilir, üzerine ürünler inşa edebilir ve belirli ihtiyaçlarınıza göre ince ayar yapabilirsiniz. Lisans, çok büyük ölçekli dağıtımlar için belirli kullanım eşikleri içerir, bu yüzden uygulamanız yüz milyonlarca kullanıcıya hizmet ediyorsa tam lisans şartlarını inceleyin.

Llama 4 Scout'ta 10 milyon token bağlam penceresi nasıl çalışır?

10M token bağlam penceresi, Llama 4 Scout'un tek bir çıkarım çağrısında 10 milyon tokena kadar kabul etmesine ve işlemesine izin verir. Bu, son derece uzun diziler üzerinde tutarlılığı koruyan konumsal kodlama ve dikkat mekanizmalarındaki mimari yeniliklerle elde edilir. İğne-kütle testleri, 8M tokenda %95 erişim doğruluğu ve tam 10M sınırında %89 gösterir.

Llama 4 Scout kod analizi için hangi programlama dillerini destekliyor?

Llama 4 Scout, Python, JavaScript, TypeScript, Java, C++, Go, Rust ve daha birçokları dahil tüm büyük programlama dillerini destekler. Eğitim verisi, geniş bir açık kaynak deposu yelpazesini kapsar. Gerçek avantaj bağlam penceresidir: çok dilli projelerin tamamını yükleyebilir ve tek bir çağrıda diller arası etkileşimleri, API sınırlarını ve tam yığın mimarilerini analiz edebilirsiniz.

Llama 4 Ailesi

Tam Llama 4 serisini keşfet

Scout, Meta'nın Llama 4 ailesinin bir parçası. Maverick ile karşılaştırın ve diğer açık modellerle nasıl sıralandığını görün.

Llama 4 Maverick

128 uzmanlı 400B MoE amiral gemisi

Karşılaştır

Tüm Llama 4 Modelleri

Tam aile genel bakışı

Tümünü görüntüle

Llama 4 vs Kimi K2.6

Scout/Maverick vs Moonshot'un 1T modeli

Karşılaştır

Llama 4 vs Qwen 3.6

Meta vs Alibaba'nın en yenisi

Karşılaştır

Llama 4 vs DeepSeek V4

MoE mimarisi düellosu

Karşılaştır

Llama 4 vs MiniMax M2.7

Bağlam vs maliyet verimliliği

Karşılaştır

Başlangıç

Llama 4 Scout'u denemeye hazır mısınız?

Ücretsiz olarak anında sohbet etmeye başlayın veya kendi kendine barındırılan dağıtım için modeli indirin. 10M token bağlam penceresi sizi bekliyor.