أخبار العالم

تطلق Meta لعبة Llama 3، وتدعي أنها من بين أفضل النماذج المفتوحة المتاحة


أصدرت Meta أحدث إصدار في سلسلة Llama من نماذج الذكاء الاصطناعي المفتوحة التوليدية: Llama 3. أو بشكل أكثر دقة، أطلقت الشركة نموذجين في عائلة Llama 3 الجديدة، وسيأتي الباقي في تاريخ مستقبلي غير محدد.

تصف Meta النماذج الجديدة – Llama 3 8B، التي تحتوي على 8 مليار معلمة، وLlama 3 70B، التي تحتوي على 70 مليار معلمة – باعتبارها “قفزة كبيرة” مقارنة بنماذج Llama من الجيل السابق، Llama 2 8B وLlama 2 70B. أداء الحكمة. (تحدد المعلمات بشكل أساسي مهارة نموذج الذكاء الاصطناعي في حل مشكلة ما، مثل تحليل وإنشاء النص؛ والنماذج ذات عدد المعلمات الأعلى، بشكل عام، أكثر قدرة من النماذج ذات عدد المعلمات الأقل). عدد المعلمات الخاصة بكل منها، Llama 3 8B وLlama 3 70B — تم تدريبهم على مجموعتين من وحدات معالجة الرسومات المصممة خصيصًا والتي يبلغ عددها 24000 وحدة معالجة رسومية هي من بين أفضل نماذج الذكاء الاصطناعي التوليدي المتوفرة اليوم.

هذا ادعاء تماما. إذن كيف تدعمها Meta؟ حسنًا، تشير الشركة إلى نتائج نماذج Llama 3 في معايير الذكاء الاصطناعي الشائعة مثل MMLU (الذي يحاول قياس المعرفة)، وARC (الذي يحاول قياس اكتساب المهارات) وDROP (الذي يختبر منطق النموذج على أجزاء من النص). وكما كتبنا من قبل، فإن فائدة – وصحة – هذه المعايير مطروحة للنقاش. ولكن للأفضل أو للأسوأ، تظل هذه إحدى الطرق الموحدة القليلة التي يقوم لاعبو الذكاء الاصطناعي مثل Meta بتقييم نماذجهم من خلالها.

يتفوق Llama 3 8B على النماذج المفتوحة الأخرى مثل Mistral’s Mistral 7B وGemma 7B من Google، وكلاهما يحتوي على 7 مليارات معلمة، في تسعة معايير على الأقل: MMLU، وARC، وDROP، وGPQA (مجموعة من البيولوجيا والفيزياء والكيمياء). الأسئلة ذات الصلة)، HumanEval (اختبار توليد التعليمات البرمجية)، GSM-8K (المسائل الرياضية اللفظية)، MATH (معيار رياضي آخر)، AGIEval (مجموعة اختبار حل المشكلات) وBIG-Bench Hard (تقييم المنطق المنطقي).

الآن، Mistral 7B وGemma 7B ليسا على حافة النزيف تمامًا (تم إصدار Mistral 7B في سبتمبر الماضي)، وفي عدد قليل من المعايير التي تستشهد بها Meta، سجل Llama 3 8B نقاطًا مئوية قليلة فقط أعلى من أي منهما. لكن Meta تدعي أيضًا أن نموذج Llama 3 ذو عدد المعلمات الأكبر، Llama 3 70B، يتنافس مع نماذج الذكاء الاصطناعي التوليدية الرائدة، بما في ذلك Gemini 1.5 Pro، الأحدث في سلسلة Gemini من Google.

اعتمادات الصورة: ميتا

يتفوق Llama 3 70B على Gemini 1.5 Pro في MMLU وHumanEval وGSM-8K، وعلى الرغم من أنه لا ينافس نموذج Anthropic الأكثر أداءً، Claude 3 Opus، إلا أن Llama 3 70B يحقق نتائج أفضل من ثاني أضعف نموذج في سلسلة Claude 3، كلود 3 السوناتة، على خمسة معايير (MMLU، GPQA، HumanEval، GSM-8K وMATH).

ميتا لاما 3

اعتمادات الصورة: ميتا

من أجل ما يستحق، طورت Meta أيضًا مجموعة اختبارات خاصة بها تغطي حالات الاستخدام التي تتراوح من البرمجة والكتابة الإبداعية إلى التفكير والتلخيص، و- مفاجأة! — جاء Llama 3 70B في المقدمة أمام نموذج Mistral’s Mistral Medium، وGPT-3.5 من OpenAI، وClude Sonnet. تقول Meta إنها منعت فرق النمذجة الخاصة بها من الوصول إلى المجموعة للحفاظ على الموضوعية، ولكن من الواضح – نظرًا لأن Meta نفسها هي التي ابتكرت الاختبار – يجب أن تؤخذ النتائج بحذر.

ميتا لاما 3

اعتمادات الصورة: ميتا

ومن الناحية النوعية، يقول ميتا إن مستخدمي نماذج اللاما الجديدة يجب أن يتوقعوا المزيد من “قابلية التوجيه”، واحتمال أقل لرفض الإجابة على الأسئلة، ودقة أعلى في الأسئلة التافهة، والأسئلة المتعلقة بالتاريخ ومجالات العلوم والتكنولوجيا والهندسة والرياضيات مثل الهندسة والعلوم والترميز العام. توصيات. ويعود الفضل في ذلك جزئيًا إلى مجموعة بيانات أكبر بكثير: مجموعة مكونة من 15 تريليون رمز، أو ما يقرب من 750,000,000,000 كلمة مذهلة – أي سبعة أضعاف حجم مجموعة تدريب Llama 2. (في مجال الذكاء الاصطناعي، تشير كلمة “الرموز المميزة” إلى أجزاء مقسمة من البيانات الأولية، مثل المقاطع الصوتية “fan” و”tas” و”tic” في كلمة “fantastic”.)

من أين أتت هذه البيانات؟ سؤال جيد. لن تقول Meta ذلك، حيث كشفت فقط أنها مستمدة من “مصادر متاحة للعامة”، وتضمنت أربعة أضعاف التعليمات البرمجية الموجودة في مجموعة بيانات تدريب Llama 2 وأن 5٪ من تلك المجموعة تحتوي على بيانات غير الإنجليزية (بحوالي 30 لغة) لتحسينها. الأداء على لغات أخرى غير الإنجليزية. وقالت Meta أيضًا إنها استخدمت البيانات الاصطناعية – أي البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي – لإنشاء مستندات أطول لنماذج Llama 3 للتدريب عليها، وهو نهج مثير للجدل إلى حد ما بسبب عيوب الأداء المحتملة.

“على الرغم من أن النماذج التي نطلقها اليوم تم ضبطها بشكل جيد فقط لمخرجات اللغة الإنجليزية، فإن تنوع البيانات المتزايد يساعد النماذج على التعرف بشكل أفضل على الفروق الدقيقة والأنماط، والأداء القوي عبر مجموعة متنوعة من المهام،” كتب ميتا في منشور مدونة تمت مشاركته مع TechCrunch.

يرى العديد من موردي الذكاء الاصطناعي الإبداعي أن بيانات التدريب هي ميزة تنافسية، وبالتالي يحتفظون بها والمعلومات المتعلقة بها بالقرب من الصندوق. لكن تفاصيل بيانات التدريب تشكل أيضًا مصدرًا محتملاً للدعاوى القضائية المتعلقة بالملكية الفكرية، وهو ما يشكل عائقًا آخر للكشف عن الكثير. كشفت التقارير الأخيرة أن شركة ميتا، في سعيها لمواكبة منافسي الذكاء الاصطناعي، استخدمت في وقت ما كتبًا إلكترونية محمية بحقوق الطبع والنشر للتدريب على الذكاء الاصطناعي على الرغم من تحذيرات محامي الشركة؛ تعد Meta وOpenAI موضوع دعوى قضائية مستمرة رفعها مؤلفون، بما في ذلك الممثلة الكوميدية سارة سيلفرمان، بشأن الاستخدام غير المصرح به المزعوم من قبل البائعين للبيانات المحمية بحقوق الطبع والنشر لأغراض التدريب.

فماذا عن السمية والتحيز، وهما مشكلتان شائعتان أخريان في نماذج الذكاء الاصطناعي التوليدي (بما في ذلك اللاما 2)؟ هل يتحسن Llama 3 في تلك المناطق؟ نعم، يدعي ميتا.

تقول شركة Meta إنها طورت خطوط أنابيب جديدة لتصفية البيانات لتعزيز جودة بيانات التدريب النموذجية الخاصة بها، وأنها قامت بتحديث مجموعتي الأمان المولدتين للذكاء الاصطناعي، Llama Guard وCybersecEval، لمحاولة منع إساءة استخدام أجيال النصوص غير المرغوب فيها من موديلات لاما 3 وغيرها. تطلق الشركة أيضًا أداة جديدة، Code Shield، مصممة لاكتشاف التعليمات البرمجية من نماذج الذكاء الاصطناعي التوليدية التي قد تؤدي إلى ثغرات أمنية.

ومع ذلك، فإن التصفية ليست مضمونة – وأدوات مثل Llama Guard، وCyberSecEval، وCode Shield لا تصل إلى هذا الحد. (انظر: ميل Llama 2 إلى اختلاق إجابات للأسئلة وتسريب معلومات صحية ومالية خاصة.) سيتعين علينا أن ننتظر ونرى كيفية أداء نماذج Llama 3 في البرية، بما في ذلك الاختبارات التي يجريها الأكاديميون على معايير بديلة.

تقول Meta إن نماذج Llama 3 – المتوفرة للتنزيل الآن، والتي تعمل على تشغيل مساعد Meta AI على Facebook وInstagram وWhatsApp وMessenger والويب – سيتم استضافتها قريبًا في شكل مُدار عبر مجموعة واسعة من المنصات السحابية بما في ذلك AWS، Databricks، وGoogle Cloud، وHugging Face، وKaggle، وWatsonX من IBM، وMicrosoft Azure، وNvidia’s NIM، وSnowflake. وفي المستقبل، سيتم أيضًا توفير إصدارات من النماذج المُحسّنة للأجهزة من AMD وAWS وDell وIntel وNvidia وQualcomm.

قد تكون نماذج Llama 3 متاحة على نطاق واسع. ولكن ستلاحظ أننا نستخدم كلمة “مفتوح” لوصفها بدلاً من كلمة “مفتوحة المصدر”. هذا لأنه، على الرغم من ادعاءات Meta، فإن مجموعة عارضات Llama الخاصة بها ليست بلا قيود كما يعتقد الناس. نعم، إنها متاحة لكل من التطبيقات البحثية والتجارية. ومع ذلك، تمنع Meta المطورين من استخدام نماذج Llama لتدريب النماذج التوليدية الأخرى، بينما يجب على مطوري التطبيقات الذين لديهم أكثر من 700 مليون مستخدم شهريًا طلب ترخيص خاص من Meta ستمنحه الشركة – أو لن تمنحه – بناءً على تقديرها.

نماذج اللاما الأكثر قدرة تلوح في الأفق.

تقول Meta إنها تقوم حاليًا بتدريب نماذج Llama 3 التي يزيد حجمها عن 400 مليار معلمة – وهي نماذج تتمتع بالقدرة على “التحدث بلغات متعددة”، والحصول على المزيد من البيانات وفهم الصور والطرائق الأخرى بالإضافة إلى النص، الأمر الذي من شأنه أن يجلب سلسلة Llama 3 تماشيًا مع الإصدارات المفتوحة مثل Hugging Face’s Idefics2.

ميتا لاما 3

اعتمادات الصورة: ميتا

“هدفنا في المستقبل القريب هو جعل Llama 3 متعددة اللغات ومتعددة الوسائط، ولها سياق أطول ومواصلة تحسين الأداء العام عبر العناصر الأساسية. [large language model] “قدرات مثل التفكير والترميز”، كتب ميتا في منشور بالمدونة. “هناك الكثير في المستقبل.”

بالفعل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى