ما هي سلسلة Llama 3 (Meta AI)؟
سلسلة Llama 3 هي الجيل التالي من نماذج اللغة الكبيرة (LLMs) مفتوحة المصدر التي طورتها Meta AI. بناءً على نجاح سابقاتها، تم تصميم نماذج Llama 3 لتكون الأفضل في فئتها، حيث تقدم أداءً متطورًا عبر مجموعة واسعة من معايير الصناعة. تتفوق في مهام مثل المحادثة الدقيقة، وتوليد الأكواد، والاستدلال المنطقي، واتباع التعليمات المعقدة. تتضمن السلسلة نماذج بأحجام مختلفة (على سبيل المثال، 8B و 70B معلمة) لتلبية الاحتياجات الحاسوبية المختلفة، من التطبيقات على الأجهزة إلى عمليات النشر السحابية واسعة النطاق.
الميزات الرئيسية
- أداء متطور: نماذج Llama 3 تنافسية للغاية مع أفضل النماذج التجارية في معايير الاستدلال والبرمجة والكتابة الإبداعية.
- أحجام نماذج متعددة: متوفرة بإصدارات 8B و 70B معلمة، مما يسمح للمطورين باختيار التوازن الصحيح بين الأداء ومتطلبات الموارد.
- تدريب مسبق مُحسَّن: تم تدريبها على مجموعة بيانات ضخمة وعالية الجودة تزيد عن 15 تريليون رمز، مع خطوط أنابيب متقدمة لتصفية البيانات لضمان المتانة وسعة المعرفة.
- أمان مُعزَّز: تتضمن ميزات أمان وحواجز حماية مدمجة، تم تطويرها من خلال تقنيات مثل Llama Guard 2 و Code Shield، لتعزيز تطوير الذكاء الاصطناعي المسؤول.
- رخصة مفتوحة المصدر سخية: تم إصدارها بموجب رخصة مجتمع Meta Llama 3، مما يسمح باستخدام تجاري وبحثي واسع النطاق.
- مُحسَّنة للحوار: تم تحسين النماذج المضبوطة بالتعليمات خصيصًا للمحادثات الطبيعية والمتبادلة.
حالات الاستخدام
- روبوتات الدردشة المتقدمة والمساعدون الافتراضيون: تشغيل وكلاء محادثة متطورين يمكنهم التعامل مع استفسارات المستخدم المعقدة.
- توليد وتصحيح الأكواد: مساعدة المطورين عن طريق كتابة واستكمال وتصحيح الأكواد بلغات برمجة مختلفة.
- إنشاء المحتوى: توليد نصوص عالية الجودة للمقالات، والنصوص التسويقية، ورسائل البريد الإلكتروني، والقصص الإبداعية.
- التلخيص واستخراج المعلومات: تكثيف المستندات الطويلة في ملخصات موجزة واستخراج المعلومات الرئيسية من النصوص غير المهيكلة.
- البحث والتطوير: تعمل كأساس قوي للباحثين الذين يستكشفون حدود الذكاء الاصطناعي.
البدء
إليك مثال بنمط “أهلاً بالعالم” حول كيفية تشغيل نموذج Llama 3 8B Instruct باستخدام مكتبة transformers في Python.
أولاً، تأكد من تثبيت المكتبات اللازمة: ```bash pip install transformers torch accelerate
بعد ذلك، يمكنك استخدام كود Python التالي لتوليد النص: ```python import transformers import torch
model_id = “meta-llama/Meta-Llama-3-8B-Instruct”
pipeline = transformers.pipeline( “text-generation”, model=model_id, model_kwargs={“torch_dtype”: torch.bfloat16}, device_map=”auto”, )
messages = [ {“role”: “system”, “content”: “أنت روبوت دردشة ودود يستجيب دائمًا بأسلوب قرصان.”}, {“role”: “user”, “content”: “مرحباً، من أنت؟”}, ]
prompt = pipeline.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True )
terminators = [ pipeline.tokenizer.eos_token_id, pipeline.tokenizer.convert_tokens_to_ids(“<|eot_id|>”) ]
outputs = pipeline( prompt, max_new_tokens=256, eos_token_id=terminators, do_sample=True, temperature=0.6, top_p=0.9, )
print(outputs[0][“generated_text”][len(prompt):])
قد يكون الناتج المتوقع:
أهوي يا صاح! أنا روبوت دردشة ودود، أبحر في البحار الرقمية. ما الكنوز التي يمكنني مساعدتك في العثور عليها اليوم؟
التسعير
نماذج Llama 3 مجانية و مفتوحة المصدر بموجب رخصة مجتمع Meta Llama 3. يسمح هذا بالاستخدام المجاني في الأبحاث والتطبيقات التجارية، على الرغم من تطبيق بعض القيود، خاصة للخدمات التي لديها أكثر من 700 مليون مستخدم نشط شهريًا.