| عنوان مقاله به انگلیسی | AdapMoE: Adaptive Sensitivity-based Expert Gating and Management for Efficient MoE Inference | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله AdapMoe: تجهیزات کارشناس مبتنی بر حساسیت تطبیقی و مدیریت برای استنباط کارآمد MOE | ||||||||
| نویسندگان | Shuzhang Zhong, Ling Liang, Yuan Wang, Runsheng Wang, Ru Huang, Meng Li | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 9 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , | ||||||||
| توضیحات | Submitted 18 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارائه شده در 18 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Mixture-of-Experts (MoE) models are designed to enhance the efficiency of large language models (LLMs) without proportionally increasing the computational demands. However, their deployment on edge devices still faces significant challenges due to high on-demand loading overheads from managing sparsely activated experts. This paper introduces AdapMoE, an algorithm-system co-design framework for efficient MoE inference. AdapMoE features adaptive expert gating and management to reduce the on-demand loading overheads. We observe the heterogeneity of experts loading across layers and tokens, based on which we propose a sensitivity-based strategy to adjust the number of activated experts dynamically. Meanwhile, we also integrate advanced prefetching and cache management techniques to further reduce the loading latency. Through comprehensive evaluations on various platforms, we demonstrate AdapMoE consistently outperforms existing techniques, reducing the average number of activated experts by 25% and achieving a 1.35x speedup without accuracy degradation. Code is available at: https://github.com/PKU-SEC-Lab/AdapMoE.
چکیده به فارسی (ترجمه ماشینی)
مدل های مخلوط کننده (MOE) برای افزایش کارآیی مدلهای بزرگ زبان (LLM) بدون افزایش متناسب تقاضای محاسباتی طراحی شده اند.با این حال ، استقرار آنها در دستگاه های Edge به دلیل بارگیری زیاد در صورت تقاضا از مدیریت متخصصان پراکنده فعال ، هنوز هم با چالش های قابل توجهی روبرو است.در این مقاله AdapMoe ، یک چارچوب طراحی الگوریتم-سیستم برای استنباط MOE کارآمد معرفی شده است.AdapMoe دارای دروازه و مدیریت متخصص تطبیقی برای کاهش هزینه های بارگذاری بر روی تقاضا است.ما ناهمگونی متخصصان بارگیری در لایه ها و نشانه ها را مشاهده می کنیم ، بر اساس آن ما یک استراتژی مبتنی بر حساسیت را برای تنظیم تعداد متخصصان فعال به صورت پویا پیشنهاد می کنیم.در همین حال ، ما همچنین تکنیک های پیشرفته پیش تنظیم و مدیریت حافظه پنهان را برای کاهش بیشتر تأخیر بارگذاری ادغام می کنیم.از طریق ارزیابی های جامع در سیستم عامل های مختلف ، ما ADAPMOE را به طور مداوم از تکنیک های موجود بهتر نشان می دهیم ، میانگین تعداد متخصصان فعال شده را 25 ٪ کاهش می دهیم و به سرعت 1.35x بدون تخریب دقت دست می یابیم.کد در: https://github.com/pku-sec-lab/adapmoe در دسترس است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.