Llama 4 Maverick

400B معلمة، 128 خبيرًا - أقوى نموذج مفتوح من Meta

Llama 4 Maverick هو النموذج الرائد MoE من Meta. بإجمالي 400B معلمة موجّهة عبر 128 خبيرًا و17B فقط نشطة لكل رمز، يقدم أداءً من الطراز الأول يتفوق على GPT-4o في المعايير الرئيسية مع بقائه مفتوح الأوزان بالكامل.

إصدارات النموذج

نماذج مضبوطة للتعليمات ونماذج أساسية

اختر بين الإصدار المضبوط للتعليمات والمُحسَّن للدردشة والمهام المعقدة، أو النموذج الأساسي للضبط الدقيق والبحث.

بنية MoE بـ 128 خبيرًا

إجمالي 400B معلمة، 17B نشطة لكل رمز

يتوسع Maverick إلى 128 خبيرًا مقارنة بـ 16 في Scout، ليضم 400B معلمة إجمالية مع الحفاظ على نفس البصمة النشطة البالغة 17B لكل رمز. هذا يمنحه قدرات استدلال وبرمجة ومتعددة الوسائط أقوى بشكل ملحوظ.

نموذج الدردشة الافتراضي على هذا الموقع. الأفضل للمهام التي تتطلب أقصى جودة: الاستدلال المعقد وتوليد الأكواد والتحليل متعدد الوسائط وتجميع الأبحاث.

مضبوط للتعليمات

Maverick Instruct

مُحسَّن للذكاء الاصطناعي التحادثي والاستدلال المعقد وتوليد الأكواد

مضبوط دقيقًا بـ RLHF لاتباع التعليمات والحوار متعدد الأدوار

متاح الآن

مُدرَّب مسبقًا

Maverick Base

نموذج MoE أساسي للضبط الدقيق والتطبيقات المتخصصة

مُدرَّب مسبقًا على بيانات متعددة الوسائط متنوعة مع توجيه 128 خبيرًا

متاح الآن

القدرات

أداء من الطراز الأول من نموذج مفتوح الأوزان

يجمع Llama 4 Maverick بين كفاءة MoE بـ 128 خبيرًا واستدلال متقدم وبرمجة قوية وفهم أصلي متعدد الوسائط - كل ذلك بـ 17B معلمة نشطة لكل رمز.

MoE بـ 128 خبيرًا

يوجّه كل رمز عبر خبراء متخصصين من مجموعة تضم 128 خبيرًا. إجمالي 400B معلمة يقدم جودة من الطراز الأول بتكلفة استدلال 17B لكل رمز.

استدلال متقدم

أداء قوي في MMLU Pro (80.5%) وGPQA Diamond (69.8%). تنافسي مع النماذج المملوكة في مهام الاستدلال المعقدة.

توليد الأكواد

يتفوق على GPT-4o في معايير البرمجة. استدعاء الدوال الأصلي يتيح سير عمل وكيلي وتنفيذ أكواد مستقل.

نافذة سياق مليون رمز

معالجة المستندات الطويلة وقواعد الأكواد والمحادثات الممتدة. كافية لمعظم حالات الاستخدام الإنتاجية.

متعدد الوسائط أصلي

بنية الدمج المبكر تعالج النصوص والصور معًا بشكل أصلي. حلل لقطات الشاشة والمخططات والمستندات جنبًا إلى جنب مع النص.

متعدد اللغات

أداء قوي عبر لغات متعددة. مصمم للتطبيقات العالمية مع فهم السياق الثقافي.

أبرز النقاط

لماذا يتميز Maverick

Maverick هو أول نموذج مفتوح الأوزان يتفوق باستمرار على GPT-4o عبر فئات معايير متعددة.

أبرز المعايير

  • MMLU Pro 80.5% - تنافسي مع النماذج المملوكة من الطراز الأول
  • GPQA Diamond 69.8% - استدلال علمي قوي
  • MMMU 73.4% - فهم ممتاز متعدد الوسائط
  • يتفوق على GPT-4o في معايير البرمجة
  • Arena ELO تنافسي مع النماذج من الدرجة الأولى

المواصفات التقنية

  • إجمالي 400B معلمة، 17B نشطة لكل رمز
  • 128 خبيرًا في بنية MoE
  • نافذة سياق مليون رمز
  • متعدد الوسائط أصلي (نص + صورة)
  • ترخيص متوافق مع Llama 3.1

الأداء

جودة من الطراز الأول من نموذج MoE مفتوح الأوزان

يحقق Llama 4 Maverick نسبة 80.5% في MMLU Pro و73.4% في MMMU، متفوقًا على GPT-4o في معايير متعددة مع تنشيط 17B معلمة فقط لكل رمز.

يثبت Maverick أن النماذج مفتوحة الأوزان يمكنها منافسة أفضل العروض المملوكة. بنيته ذات 128 خبيرًا تقدم تميزًا مستمرًا عبر الاستدلال والبرمجة والمهام متعددة الوسائط.

مخطط مقارنة أداء Llama 4 Maverick

MMLU Pro 80.5% - معرفة واستدلال من الطراز الأول

GPQA Diamond 69.8% - استدلال علمي قوي

MMMU 73.4% - فهم ممتاز متعدد الوسائط

يتفوق على GPT-4o في معايير البرمجة

17B معلمة نشطة من إجمالي 400B (128 خبيرًا)

مقارنة المعايير

Maverick مقابل Scout والجيل السابق

بنية Maverick ذات 128 خبيرًا تقدم تحسينات كبيرة مقارنة بـ Scout وLlama 3.1 عبر جميع الفئات.

Benchmark
Llama 4 Maverick
128 خبيرًا
مميز
Llama 4 Scout
16 خبيرًا
Llama 3.1 70B
كثيف
GPT-4o
مملوك
MMLU Pro
المعرفة والاستدلال
80.5%74.3%66.4%78.4%
GPQA Diamond
المعرفة العلمية
69.8%57.2%46.7%53.6%
LiveCodeBench v5
البرمجة
43.4%32.8%28.5%37.0%
MMMU
متعدد الوسائط
73.4%69.4%-69.1%
Context Window
الحد الأقصى للرموز
1M10M128K128K
Total Parameters
حجم النموذج
400B109B70B-
Active Parameters
لكل رمز
17B17B70B-

البيانات من بطاقة النموذج الرسمية لـ Meta والتقييمات المستقلة.

نطاق 128 خبيرًا

سعة 400B بتكلفة استدلال 17B

بنية MoE بـ 128 خبيرًا في Maverick هي توسع كبير مقارنة بـ 16 خبيرًا في Scout. يتم توجيه كل رمز إلى خبراء متخصصين، مما يمنح النموذج وصولًا إلى 400B معلمة من المعرفة مع تنشيط 17B فقط في كل تمريرة أمامية.

  • 128 خبيرًا مقابل 16 في Scout - تخصص أكثر بـ 8 أضعاف
  • إجمالي 400B معلمة مقابل 109B في Scout
  • نفس تكلفة المعلمات النشطة البالغة 17B لكل رمز كـ Scout
Llama 4 Maverick 128-expert MoE architecture

متعدد الوسائط

فهم أصلي للنصوص والصور

يستخدم Maverick بنية الدمج المبكر لمعالجة النصوص والصور معًا بشكل أصلي. هذا يعني أن الفهم البصري مدمج في النموذج من الأساس، وليس مضافًا كوحدة منفصلة.

  • 73.4% في معيار MMMU متعدد الوسائط
  • بنية الدمج المبكر للمعالجة الأصلية متعددة الوسائط
  • حلل لقطات الشاشة والمخططات والرسوم البيانية والمستندات
Llama 4 Maverick multimodal capabilities

التحميل والنشر

النشر الذاتي

حمّل أوزان النموذج الرسمية للنشر على بنيتك التحتية.

عائلة Llama 4

استكشف تشكيلة Llama 4 الكاملة

Maverick هو النموذج الرائد المفتوح من Meta. قارنه مع Scout وشاهد كيف يقف أمام النماذج الأخرى من الطراز الأول.

Llama 4 Scout

متخصص نافذة السياق 10 ملايين رمز

قارن

All Llama 4 Models

نظرة شاملة على العائلة

عرض الكل

Llama 4 vs Kimi K2.6

Maverick مقابل نموذج Moonshot بـ 1T

قارن

Llama 4 vs Qwen 3.6

Meta مقابل أحدث نماذج Alibaba

قارن

Llama 4 vs DeepSeek V4

مواجهة بنية MoE

قارن

Llama 4 vs MiniMax M2.7

الحجم مقابل كفاءة التكلفة

قارن

ابدأ الآن

مستعد لتجربة Llama 4 Maverick؟

ابدأ المحادثة فورًا مجانًا. Maverick هو النموذج الافتراضي على هذا الموقع - لا حاجة لأي إعداد.