
هل تعبت من الاستدلال البطيء وقنوات التقديم المعقدة؟ انضم إلينا لمشاهدة **عرض عملي مباشر لـ vLLM**، محرك الاستدلال عالي الأداء المصمم للنماذج اللغوية الكبيرة. في هذا الجلسة، ستتعلم: * كيفية تثبيت وتكوين **vLLM** خطوة بخطوة * أفضل الممارسات لتقديم النماذج بكفاءة باستخدام **الدفعات الديناميكية والانتباه الصفحي (PagedAttention)** * كيف يقارن vLLM بإطارات العمل التقليدية مثل TGI وHugging Face Inference * نصائح لتشغيل vLLM محليًا وتوسيعه على السحابة هذه **ورشة عمل عملية خالية من الحشو**—ستغادر وقد قمت بتشغيل نموذج عبر vLLM، مع اكتساب المهارة اللازمة لنشر نماذجك الخاصة في بيئة الإنتاج. 🔹 **الشكل:** برمجة مباشرة + أسئلة وأجوبة 🔹 **لمن هذه الورشة:** مهندسو الذكاء الاصطناعي، ومختبرو التعلم الآلي، والمؤسِسون، وأي شخص مهتم بنشر النماذج اللغوية الكبيرة على نطاق واسع 🔹 **النتيجة المرجوة:** إعدادية vLLM عاملة وفهم أعمق لكيفية تقديم النماذج اللغوية الكبيرة بكفاءة
