Llama 4 Scout
10 milyon token bağlam - herhangi bir açık modelde en uzun pencere
Llama 4 Scout, tek bir model çağrısının neler başarabileceğini yeniden tanımlar. Meta'nın uzman karışımı mimarisi üzerine, 109B toplam parametre ve token başına yalnızca 17B aktif ile inşa edilmiş, herhangi bir açık modelin en uzun bağlam penceresi olan 10 milyon token sunar. Yüzlerce dosya kapsayan bir kod tabanını, düzinelece makalelik tam bir araştırma kütüphanesini veya saatlerce toplantı transkripsiyonunu besleyin. Diğer modellerin parçalayıp özetlemenizi zorladığı yerde, Llama 4 Scout her şeyi aynı anda işler, parçalamanın yok edeceği belgeler arası ilişkileri ve ince bağlantıları korur.
Model varyantları
Talimat ayarlı ve temel modeller
Sohbet ve uzun bağlam görevleri için optimize edilmiş talimat ayarlı varyant veya ince ayar ve özel uygulamalar için temel model arasında seçim yapın.
Uzman Karışımı Mimarisi
109B toplam parametre, token başına 17B aktif
Llama 4 Scout, 16 uzmanlı seyrek MoE tasarımı kullanır, her ileri geçişte 17B parametre etkinleştirir. Öne çıkan özelliği, herhangi bir açık modelin en uzun bağlam penceresi olan 10 milyon token bağlam penceresidir.
Büyük miktarda metin işlemeyi gerektiren görevler için ideal: tüm kod tabanları, çok belgeli analiz, uzun araştırma makaleleri ve genişletilmiş konuşma geçmişleri.
Talimat ayarlı
Scout Instruct
Konuşmalı AI ve uzun bağlam görev tamamlama için optimize edilmiş
Talimatları takip etme, çok turlu diyalog ve çok uzun girdileri işleme için ince ayarlanmış
Önceden eğitilmiş
Scout Base
İnce ayar ve özel uygulamalar için temel MoE modeli
16 uzmanlı yönlendirme ile çeşitli çok modlu veriler üzerinde önceden eğitilmiş
Yetenekler
Llama 4 Scout'u uzun bağlam güçlüsü yapan nedir
Llama 4 Scout, benzersiz bir 10M token bağlam penceresini MoE verimliliği, yerel çok modlu destek ve güçlü akıl yürütme yetenekleriyle birleştirir. Her özellik, tek bir geçişte büyük bilgi hacimlerini işlemeyi talep eden görevler için tasarlanmıştır.
10M token bağlam penceresi
Herhangi bir açık modelin en uzun bağlam penceresi. Yüzlerce dosya kapsayan 50.000+ satırlık tüm kod tabanlarını, çok belgeli araştırma kütüphanelerini veya saatlerce konuşmayı tek bir çağrıda işleyin. İğne-kütle testleri, 8 milyon tokena kadar %95 erişim doğruluğunu, tam 10 milyon token sınırında %89 doğruluğu onaylar.
MoE verimliliği
16 uzman arasında 109B havuzdan token başına yalnızca 17B parametre etkinleştirir. Bu seyrek yönlendirme stratejisi, benzer toplam parametre sayılarına sahip yoğun modellerin bilgi işlem maliyetinin çok küçük bir kısmıyla güçlü performans sunar. Sonuç, bu kapasitedeki bir model için bekleyebileceğinizden daha az GPU'da pratik dağıtımdır.
Ölçekli kod analizi
Çapraz dosya analizi, bağımlılık takibi ve büyük ölçekli yeniden düzenleme görevleri için tüm depoları bağlama yükleyin. Llama 4 Scout, modüller arası fonksiyon çağrılarını izleyebilir, kullanılmayan import'ları belirleyebilir ve kod tabanınızın tam resmini aynı anda görerek mimari iyileştirmeler önerebilir.
Ajan iş akışları
Yerel fonksiyon çağırma ve araç kullanım desteği, ek ince ayar olmadan otonom ajanları sağlar. Birden çok aracı zincirleyen, veritabanlarını sorgulayan, API'leri çağıran ve sonuçları sırayla işleyen iş akışları oluşturun. Genişletilmiş bağlam penceresi, ajanların birçok etkileşim adımı boyunca zengin durum koruyabileceği anlamına gelir.
Çok dilli destek
Küresel uygulamalar için kültürel bağlam anlayışıyla birden fazla dilde güçlü performans. İster İngilizce, Çince, İspanyolca veya diğer desteklenen dillerde belgeler analiz ediyor olun, Llama 4 Scout tutarlı kaliteyi ve dilsel sınırlar boyunca nüanslı anlayışı korur.
Yerel çok modlu
Erken kaynaşma mimarisiyle metni ve görüntüleri birlikte işleyin. Ayrı görüntü işlem hatlarına ihtiyaç duymadan metinle birlikte ekran görüntülerini, diyagramları, grafikleri ve belgeleri analiz edin. Çok modlu yetenek, baştan sona modele yerleşiktir, görsel ve metinsel bilgi arasında sorunsuz akıl yürütme sağlar.
Önemli noktalar
Llama 4 Scout bağlam penceresi neden önemli
10M token bağlam penceresi, tek bir model çağrısıyla nelerin mümkün olduğunu değiştirir.
10M token'a neler sığar
- Orta büyüklükteki bir kod tabanının tamamı (yüzlerce dosyada 50K+ satır)
- Birden fazla araştırma makalesi veya bir kitabın tamamı
- Saatlerce toplantı transkripsiyonu veya konuşma geçmişi
- Karmaşık sistemler için tam dokümantasyon setleri
- İğne-kütle testlerinde 8M tokenda %95+ erişim doğruluğu
Teknik özellikler
- 109B toplam parametre, token başına 17B aktif
- MoE mimarisinde 16 uzman
- 10M token bağlam penceresi
- Yerel çok modlu (metin + görüntü)
- Llama 3.1 uyumlu lisans
Performans
Rekabetçi akıl yürütmeyle uzun bağlam uzmanı
Llama 4 Scout, standart kıyaslamalar genelinde güçlü performans sunarken, uzun belge görevleri için eşsiz 10M token bağlam penceresi sağlar.
Gerçek dünya kullanımında, Llama 4 Scout görevler büyük bilgi hacimlerini işlemeyi talep ettiğinde parlar. Geliştiriciler, kapsamlı kod incelemesi için tüm GitHub depolarını başarıyla yüklediklerini bildiriyor, araştırmacılar literatür sentezi için tam makale koleksiyonlarını besliyor, hukuk ekipleri madde karşılaştırması için tam sözleşme kütüphanelerini işliyor. Maverick ham kıyaslama puanlarında önde olsa da, Scout'un 10M bağlam penceresi, her şeyi aynı anda görmek, kısa istemlerde marjinal kalite kazançlarından daha değerli olduğu iş akışları için onu açık seçim yapar.
10M token bağlam penceresi - herhangi bir açık modelin en uzun
8M tokenda %95+ erişim doğruluğu
109B toplamdan 17B aktif parametre (16 uzman)
Aktif parametre sayısının 2-3 katı modellerle rekabetçi
Metin ve görüntü girdileri için yerel çok modlu destek
Kıyaslama karşılaştırması
Scout vs Maverick ve Llama 4 ailesi
Scout, büyük bağlam penceresi avantajı için bazı ham kıyaslama performansını takas eder.
| Benchmark | Llama 4 Scout 16 uzman Öne Çıkan | Llama 4 Maverick 128 uzman | Llama 3.1 70B Yoğun |
|---|---|---|---|
MMLU Pro Bilgi ve akıl yürütme | %74.3 | %80.5 | %66.4 |
GPQA Diamond Bilimsel bilgi | %57.2 | %69.8 | %46.7 |
LiveCodeBench v5 Kodlama | %32.8 | %43.4 | %28.5 |
MMMU Çok modlu | %69.4 | %73.4 | - |
Bağlam Penceresi Maksimum token | 10M | 1M | 128K |
Toplam Parametreler Model boyutu | 109B | 400B | 70B |
Aktif Parametreler Token başına | 17B | 17B | 70B |
Meta'nın resmi model kartından ve bağımsız değerlendirmelerden veriler.
Uzun Bağlam
10M token: Llama 4 Scout ile tüm kod tabanlarını işleyin
Llama 4 Scout'taki 10M token bağlam penceresi, herhangi bir açık modelin en uzunudur. Kapsamlı analiz için tüm depoları, çok belgeli araştırma setlerini veya saatlerce transkripsiyonu tek bir bağlama yükleyin, parçalama veya özetleme nedeniyle bilgi kaybetmeden.
- İğne-kütle testlerinde 8M tokenda %95+ erişim doğruluğu
- Tam 10M token sınırında güvenilir uzun menzilli erişim için %89 doğruluk
- Yüzlerce dosyada 50K+ satır kodu aynı anda işleyin
- Belgeleri bölmekten kaçınarak tam araştırma makalesi koleksiyonlarını analiz edin
- Genişletilmiş çok turlu oturumlar boyunca tam konuşma geçmişi koruyun
MoE Mimarisi
Llama 4 Scout 109B kapasiteyi 17B maliyetle nasıl sunar
Llama 4 Scout'taki 16 uzmanlı MoE mimarisi, çok daha büyük bir modelin temsil kapasitesini korurken token başına yalnızca 17B parametre etkinleştirir. Bu, onu hala akıl yürütme, kodlama ve analiz görevleri genelinde güçlü performans sunarken tek bir düğümde dağıtmayı pratik hale getirir.
- Verimli çıkarım için ileri geçiş başına 17B aktif parametreli 16 uzman
- Önemli ölçüde daha düşük toplam bellekte Maverick ile aynı aktif parametre sayısı
- Daha az GPU gereksinimiyle tek düğüm dağıtım senaryoları için pratik
- Seyrek yönlendirme, her tokenın özelleşmiş uzman ilgisi aldığını sağlar
- Benzer toplam parametreli yoğun modellere kıyasla daha düşük işletim maliyeti
Çok Modlu
Llama 4 Scout'ta çok modlu yetenekler
Llama 4 Scout, metni ve görüntüleri yerel olarak birlikte işlemek için erken kaynaşma mimarisi kullanır. Görsel anlama, ayrı bir modül olarak eklenmek yerine baştan sona modele yerleşiktir, aynı büyük bağlam penceresi içinde her iki modda sorunsuz akıl yürütme sağlar.
- Güçlü görsel akıl yürütme için MMMU çok modlu kıyaslamasında %69.4
- Erken kaynaşma mimarisi, görüntüleri ve metni birleşik bir akışta işler
- Kodla birlikte ekran görüntülerini, diyagramları, akış diyagramlarını ve teknik çizimleri analiz edin
- Tam 10M token bağlam penceresiyle görsel belge analizini birleştirin
- Ayrı görüntü işlem hattı gerekmez, dağıtım karmaşıklığını azaltır
Başlangıç
Llama 4 Scout'u şimdi dene
Anında sohbet etmeye başla veya kendi kendine barındırılan dağıtım için ağırlıkları indir.
İndir ve dağıt
Kendi kendine barındırılan dağıtım
Altyapınızda dağıtım için resmi model ağırlıklarını indirin.
SSS
Llama 4 Scout hakkında sıkça sorulan sorular
Geliştiricilerin ve araştırmacıların Llama 4 Scout'u çalıştırma, dağıtma ve en iyi şekilde kullanma hakkında sorduğu en yaygın soruların yanıtları.
Llama 4 Scout'un tam hassasiyet versiyonunu çalıştırmak yaklaşık 220 GB VRAM gerektirir, bu da tipik olarak en az iki A100 80 GB kartlı çoklu GPU kurulumu anlamına gelir. Kuantize versiyonlar bunu önemli ölçüde azaltabilir. INT8 kuantizasyon gereksinimi yaklaşık 110 GB'a indirir, INT4 kuantizasyon yaklaşık 55 GB'a sığabilir, bu da birden çok GPU'lu üst düzey tüketici kurulumlarında erişilebilir hale getirir.
Evet. Llama 4 Scout'taki 10 milyon token bağlam penceresi, yüzlerce dosyada yaklaşık 50.000 satır kodu aynı anda tutabilir. Bu, çoğu orta büyüklükteki deponun tamamen tek bir bağlam çağrısına sığdığı anlamına gelir, parçalama veya dosyalar arasında bağlam kaybetmeden çapraz dosya analizi, bağımlılık takibi ve mimari inceleme sağlar.
Llama 4 Scout, 10M token penceresi ve 16 uzmanla (109B toplam parametre) uzun bağlam görevleri için optimize edilmiştir. Maverick, 128 uzman ve 400B toplam parametreyle ham kaliteyi önceliklendirir ancak 1M token bağlam penceresi vardır. İkisi de token başına 17B parametre etkinleştirir. Büyük bağlam gerektiğinde Scout'u, maksimum kıyaslama performansı gerektiğinde Maverick'i seçin.
Evet. Llama 4 Scout, ticari kullanıma izin veren Llama 3.1 uyumlu lisans altında yayınlanmıştır. Üretim uygulamalarında dağıtabilir, üzerine ürünler inşa edebilir ve belirli ihtiyaçlarınıza göre ince ayar yapabilirsiniz. Lisans, çok büyük ölçekli dağıtımlar için belirli kullanım eşikleri içerir, bu yüzden uygulamanız yüz milyonlarca kullanıcıya hizmet ediyorsa tam lisans şartlarını inceleyin.
10M token bağlam penceresi, Llama 4 Scout'un tek bir çıkarım çağrısında 10 milyon tokena kadar kabul etmesine ve işlemesine izin verir. Bu, son derece uzun diziler üzerinde tutarlılığı koruyan konumsal kodlama ve dikkat mekanizmalarındaki mimari yeniliklerle elde edilir. İğne-kütle testleri, 8M tokenda %95 erişim doğruluğu ve tam 10M sınırında %89 gösterir.
Llama 4 Scout, Python, JavaScript, TypeScript, Java, C++, Go, Rust ve daha birçokları dahil tüm büyük programlama dillerini destekler. Eğitim verisi, geniş bir açık kaynak deposu yelpazesini kapsar. Gerçek avantaj bağlam penceresidir: çok dilli projelerin tamamını yükleyebilir ve tek bir çağrıda diller arası etkileşimleri, API sınırlarını ve tam yığın mimarilerini analiz edebilirsiniz.
Llama 4 Ailesi
Tam Llama 4 serisini keşfet
Scout, Meta'nın Llama 4 ailesinin bir parçası. Maverick ile karşılaştırın ve diğer açık modellerle nasıl sıralandığını görün.
Başlangıç
Llama 4 Scout'u denemeye hazır mısınız?
Ücretsiz olarak anında sohbet etmeye başlayın veya kendi kendine barındırılan dağıtım için modeli indirin. 10M token bağlam penceresi sizi bekliyor.