تصفح جميع التصنيفات
···
تسجيل الدخول / التسجيل
تجربة عملية مع vLLM: استدلال سريع وتقديم النماذج أصبح بسيطًا64236699976193110
مجاني
المفضلة
مشاركة

تجربة عملية مع vLLM: استدلال سريع وتقديم النماذج أصبح بسيطًا

addressF5HW+FGX, Vaiaku, Tuvalu

تمت ترجمة بعض المحتوى تلقائيًا.عرض الأصل
وصف

هل تعبت من الاستدلال البطيء وقنوات التقديم المعقدة؟ انضم إلينا لمشاهدة **عرض عملي مباشر لـ vLLM**، محرك الاستدلال عالي الأداء المصمم للنماذج اللغوية الكبيرة. في هذا الجلسة، ستتعلم: * ​كيفية تثبيت وتكوين **vLLM** خطوة بخطوة * ​أفضل الممارسات لتقديم النماذج بكفاءة باستخدام **الدفعات الديناميكية والانتباه الصفحي (PagedAttention)** * ​كيف يقارن vLLM بإطارات العمل التقليدية مثل TGI وHugging Face Inference * ​نصائح لتشغيل vLLM محليًا وتوسيعه على السحابة هذه **ورشة عمل عملية خالية من الحشو**—ستغادر وقد قمت بتشغيل نموذج عبر vLLM، مع اكتساب المهارة اللازمة لنشر نماذجك الخاصة في بيئة الإنتاج. ​🔹 **الشكل:** برمجة مباشرة + أسئلة وأجوبة 🔹 **لمن هذه الورشة:** مهندسو الذكاء الاصطناعي، ومختبرو التعلم الآلي، والمؤسِسون، وأي شخص مهتم بنشر النماذج اللغوية الكبيرة على نطاق واسع 🔹 **النتيجة المرجوة:** إعدادية vLLM عاملة وفهم أعمق لكيفية تقديم النماذج اللغوية الكبيرة بكفاءة

المصدر:  meetup عرض المنشور الأصلي

موقع
F5HW+FGX, Vaiaku, Tuvalu
عرض الخريطة

meetup

قد يعجبك أيضا

كوكيز
إعدادات الكوكيز
تطبيقاتنا
Download
حمِّل من
APP Store
Download
احصل عليه من
Google Play
© 2025 Servanan International Pte. Ltd.