Llama 4 Maverick
400B معلمة، 128 خبيرًا - أقوى نموذج مفتوح من Meta
Llama 4 Maverick هو النموذج الرائد MoE من Meta. بإجمالي 400B معلمة موجّهة عبر 128 خبيرًا و17B فقط نشطة لكل رمز، يقدم أداءً من الطراز الأول يتفوق على GPT-4o في المعايير الرئيسية مع بقائه مفتوح الأوزان بالكامل.
إصدارات النموذج
نماذج مضبوطة للتعليمات ونماذج أساسية
اختر بين الإصدار المضبوط للتعليمات والمُحسَّن للدردشة والمهام المعقدة، أو النموذج الأساسي للضبط الدقيق والبحث.
بنية MoE بـ 128 خبيرًا
إجمالي 400B معلمة، 17B نشطة لكل رمز
يتوسع Maverick إلى 128 خبيرًا مقارنة بـ 16 في Scout، ليضم 400B معلمة إجمالية مع الحفاظ على نفس البصمة النشطة البالغة 17B لكل رمز. هذا يمنحه قدرات استدلال وبرمجة ومتعددة الوسائط أقوى بشكل ملحوظ.
نموذج الدردشة الافتراضي على هذا الموقع. الأفضل للمهام التي تتطلب أقصى جودة: الاستدلال المعقد وتوليد الأكواد والتحليل متعدد الوسائط وتجميع الأبحاث.
مضبوط للتعليمات
Maverick Instruct
مُحسَّن للذكاء الاصطناعي التحادثي والاستدلال المعقد وتوليد الأكواد
مضبوط دقيقًا بـ RLHF لاتباع التعليمات والحوار متعدد الأدوار
مُدرَّب مسبقًا
Maverick Base
نموذج MoE أساسي للضبط الدقيق والتطبيقات المتخصصة
مُدرَّب مسبقًا على بيانات متعددة الوسائط متنوعة مع توجيه 128 خبيرًا
القدرات
أداء من الطراز الأول من نموذج مفتوح الأوزان
يجمع Llama 4 Maverick بين كفاءة MoE بـ 128 خبيرًا واستدلال متقدم وبرمجة قوية وفهم أصلي متعدد الوسائط - كل ذلك بـ 17B معلمة نشطة لكل رمز.
MoE بـ 128 خبيرًا
يوجّه كل رمز عبر خبراء متخصصين من مجموعة تضم 128 خبيرًا. إجمالي 400B معلمة يقدم جودة من الطراز الأول بتكلفة استدلال 17B لكل رمز.
استدلال متقدم
أداء قوي في MMLU Pro (80.5%) وGPQA Diamond (69.8%). تنافسي مع النماذج المملوكة في مهام الاستدلال المعقدة.
توليد الأكواد
يتفوق على GPT-4o في معايير البرمجة. استدعاء الدوال الأصلي يتيح سير عمل وكيلي وتنفيذ أكواد مستقل.
نافذة سياق مليون رمز
معالجة المستندات الطويلة وقواعد الأكواد والمحادثات الممتدة. كافية لمعظم حالات الاستخدام الإنتاجية.
متعدد الوسائط أصلي
بنية الدمج المبكر تعالج النصوص والصور معًا بشكل أصلي. حلل لقطات الشاشة والمخططات والمستندات جنبًا إلى جنب مع النص.
متعدد اللغات
أداء قوي عبر لغات متعددة. مصمم للتطبيقات العالمية مع فهم السياق الثقافي.
أبرز النقاط
لماذا يتميز Maverick
Maverick هو أول نموذج مفتوح الأوزان يتفوق باستمرار على GPT-4o عبر فئات معايير متعددة.
أبرز المعايير
- MMLU Pro 80.5% - تنافسي مع النماذج المملوكة من الطراز الأول
- GPQA Diamond 69.8% - استدلال علمي قوي
- MMMU 73.4% - فهم ممتاز متعدد الوسائط
- يتفوق على GPT-4o في معايير البرمجة
- Arena ELO تنافسي مع النماذج من الدرجة الأولى
المواصفات التقنية
- إجمالي 400B معلمة، 17B نشطة لكل رمز
- 128 خبيرًا في بنية MoE
- نافذة سياق مليون رمز
- متعدد الوسائط أصلي (نص + صورة)
- ترخيص متوافق مع Llama 3.1
الأداء
جودة من الطراز الأول من نموذج MoE مفتوح الأوزان
يحقق Llama 4 Maverick نسبة 80.5% في MMLU Pro و73.4% في MMMU، متفوقًا على GPT-4o في معايير متعددة مع تنشيط 17B معلمة فقط لكل رمز.
يثبت Maverick أن النماذج مفتوحة الأوزان يمكنها منافسة أفضل العروض المملوكة. بنيته ذات 128 خبيرًا تقدم تميزًا مستمرًا عبر الاستدلال والبرمجة والمهام متعددة الوسائط.
MMLU Pro 80.5% - معرفة واستدلال من الطراز الأول
GPQA Diamond 69.8% - استدلال علمي قوي
MMMU 73.4% - فهم ممتاز متعدد الوسائط
يتفوق على GPT-4o في معايير البرمجة
17B معلمة نشطة من إجمالي 400B (128 خبيرًا)
مقارنة المعايير
Maverick مقابل Scout والجيل السابق
بنية Maverick ذات 128 خبيرًا تقدم تحسينات كبيرة مقارنة بـ Scout وLlama 3.1 عبر جميع الفئات.
| Benchmark | Llama 4 Maverick 128 خبيرًا مميز | Llama 4 Scout 16 خبيرًا | Llama 3.1 70B كثيف | GPT-4o مملوك |
|---|---|---|---|---|
MMLU Pro المعرفة والاستدلال | 80.5% | 74.3% | 66.4% | 78.4% |
GPQA Diamond المعرفة العلمية | 69.8% | 57.2% | 46.7% | 53.6% |
LiveCodeBench v5 البرمجة | 43.4% | 32.8% | 28.5% | 37.0% |
MMMU متعدد الوسائط | 73.4% | 69.4% | - | 69.1% |
Context Window الحد الأقصى للرموز | 1M | 10M | 128K | 128K |
Total Parameters حجم النموذج | 400B | 109B | 70B | - |
Active Parameters لكل رمز | 17B | 17B | 70B | - |
البيانات من بطاقة النموذج الرسمية لـ Meta والتقييمات المستقلة.
نطاق 128 خبيرًا
سعة 400B بتكلفة استدلال 17B
بنية MoE بـ 128 خبيرًا في Maverick هي توسع كبير مقارنة بـ 16 خبيرًا في Scout. يتم توجيه كل رمز إلى خبراء متخصصين، مما يمنح النموذج وصولًا إلى 400B معلمة من المعرفة مع تنشيط 17B فقط في كل تمريرة أمامية.
- 128 خبيرًا مقابل 16 في Scout - تخصص أكثر بـ 8 أضعاف
- إجمالي 400B معلمة مقابل 109B في Scout
- نفس تكلفة المعلمات النشطة البالغة 17B لكل رمز كـ Scout
متعدد الوسائط
فهم أصلي للنصوص والصور
يستخدم Maverick بنية الدمج المبكر لمعالجة النصوص والصور معًا بشكل أصلي. هذا يعني أن الفهم البصري مدمج في النموذج من الأساس، وليس مضافًا كوحدة منفصلة.
- 73.4% في معيار MMMU متعدد الوسائط
- بنية الدمج المبكر للمعالجة الأصلية متعددة الوسائط
- حلل لقطات الشاشة والمخططات والرسوم البيانية والمستندات
ابدأ الآن
جرّب Llama 4 Maverick الآن
ابدأ المحادثة فورًا أو حمّل الأوزان للنشر الذاتي.
التحميل والنشر
النشر الذاتي
حمّل أوزان النموذج الرسمية للنشر على بنيتك التحتية.
عائلة Llama 4
استكشف تشكيلة Llama 4 الكاملة
Maverick هو النموذج الرائد المفتوح من Meta. قارنه مع Scout وشاهد كيف يقف أمام النماذج الأخرى من الطراز الأول.
ابدأ الآن
مستعد لتجربة Llama 4 Maverick؟
ابدأ المحادثة فورًا مجانًا. Maverick هو النموذج الافتراضي على هذا الموقع - لا حاجة لأي إعداد.