| عنوان مقاله به انگلیسی | Art and Science of Quantizing Large-Scale Models: A Comprehensive Overview | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله هنر و علم کمیت مدلهای در مقیاس بزرگ: یک مرور کلی جامع | ||||||||
| نویسندگان | Yanshu Wang, Tong Yang, Xiyan Liang, Guoan Wang, Hanning Lu, Xu Zhe, Yaoming Li, Li Weitao | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 20 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , | ||||||||
| توضیحات | Submitted 17 September, 2024; originally announced September 2024. | ||||||||
| توضیحات به فارسی | ارسال شده 17 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
This paper provides a comprehensive overview of the principles, challenges, and methodologies associated with quantizing large-scale neural network models. As neural networks have evolved towards larger and more complex architectures to address increasingly sophisticated tasks, the computational and energy costs have escalated significantly. We explore the necessity and impact of model size growth, highlighting the performance benefits as well as the computational challenges and environmental considerations. The core focus is on model quantization as a fundamental approach to mitigate these challenges by reducing model size and improving efficiency without substantially compromising accuracy. We delve into various quantization techniques, including both post-training quantization (PTQ) and quantization-aware training (QAT), and analyze several state-of-the-art algorithms such as LLM-QAT, PEQA(L4Q), ZeroQuant, SmoothQuant, and others. Through comparative analysis, we examine how these methods address issues like outliers, importance weighting, and activation quantization, ultimately contributing to more sustainable and accessible deployment of large-scale models.
چکیده به فارسی (ترجمه ماشینی)
در این مقاله یک مرور کلی از اصول ، چالش ها و روشهای مرتبط با کمیت مدلهای شبکه عصبی در مقیاس بزرگ ارائه شده است.از آنجا که شبکه های عصبی به سمت معماری های بزرگتر و پیچیده تر برای پرداختن به کارهای فزاینده پیشرفته تکامل یافته اند ، هزینه های محاسباتی و انرژی به طور قابل توجهی افزایش یافته است.ما ضرورت و تأثیر رشد اندازه مدل را بررسی می کنیم ، مزایای عملکرد و همچنین چالش های محاسباتی و ملاحظات زیست محیطی را برجسته می کنیم.تمرکز اصلی بر کمیت مدل به عنوان یک رویکرد اساسی برای کاهش این چالش ها با کاهش اندازه مدل و بهبود کارآیی بدون دقت به خطر انداختن است.ما به تکنیک های مختلف کمیت ، از جمله هر دو کمیت پس از آموزش (PTQ) و آموزش کمیت آگاه (QAT) می پردازیم و چندین الگوریتم پیشرفته مانند LLM-QAT ، PEQA (L4Q) ، Zeroquant ، Smoothquant را تجزیه و تحلیل می کنیم.، و دیگراناز طریق تجزیه و تحلیل مقایسه ای ، ما بررسی می کنیم که چگونه این روش ها به موضوعاتی مانند Outliers ، وزن گیری اهمیت و کمیت فعال سازی می پردازند ، در نهایت به استقرار پایدارتر و در دسترس مدلهای در مقیاس بزرگ کمک می کنند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.