| عنوان مقاله به انگلیسی | Advancing Multimodal Large Language Models with Quantization-Aware Scale Learning for Efficient Adaptation |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله پیشرفت مدلهای زبانی بزرگ چندوجهی با یادگیری مقیاس آگاه از کوانتیزاسیون برای تطبیق کارآمد |
| نویسندگان | Jingjing Xie, Yuxin Zhang, Mingbao Lin, Liujuan Cao, Rongrong Ji |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 10 |
| دسته بندی موضوعات | Computer Vision and Pattern Recognition,Artificial Intelligence,Machine Learning,چشم انداز رایانه و تشخیص الگوی , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 7 August, 2024; originally announced August 2024. , Comments: Accepted by ACMMM2024 |
| توضیحات به فارسی | ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: پذیرفته شده توسط ACMMM2024 |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 400,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
This paper presents the first study to explore the potential of parameter quantization for multimodal large language models to alleviate the significant resource constraint encountered during vision-language instruction tuning. We introduce a Quantization-aware Scale LeArning method based on multimodal Warmup, termed QSLAW. This method is grounded in two key innovations: (1) The learning of group-wise scale factors for quantized LLM weights to mitigate the quantization error arising from activation outliers and achieve more effective vision-language instruction tuning; (2) The implementation of a multimodal warmup that progressively integrates linguistic and multimodal training samples, thereby preventing overfitting of the quantized model to multimodal data while ensuring stable adaptation of multimodal large language models to downstream vision-language tasks. Extensive experiments demonstrate that models quantized by QSLAW perform on par with, or even surpass, their full-precision counterparts, while facilitating up to 1.4 times reduction in VL tuning time and GPU consumption. Our code is released at https://github.com/xjjxmu/QSLAW.
چکیده به فارسی (ترجمه ماشینی)
در این مقاله اولین مطالعه برای بررسی پتانسیل کمیت پارامتر برای مدلهای زبان بزرگ چندمودال برای کاهش محدودیت منابع قابل توجه در هنگام تنظیم دستورالعمل بینایی زبان ارائه شده است.ما یک روش یادگیری مقیاس آگاهانه را بر اساس گرمای چند حالته ، با نام QSLAW معرفی می کنیم.این روش در دو نوآوری کلیدی پایه گذاری شده است: (1) یادگیری فاکتورهای مقیاس گروهی برای وزن LLM کمیت برای کاهش خطای کمیت ناشی از محیط زیست فعال سازی و دستیابی به تنظیم دستورالعمل های بینش موثرتر.(2) اجرای یک گرمای چند حالته که به تدریج نمونه های آموزشی زبانی و چند حالته را ادغام می کند ، از این طریق مانع از افزایش بیش از حد مدل کمیته به داده های چند مدلی می شود و در عین حال از سازگاری پایدار مدلهای زبان بزرگ چندمودال به کارهای بینایی پایین دست اطمینان می دهد.آزمایش های گسترده نشان می دهد که مدلهای کمیت شده توسط QSLAW به طور همتایان با همتایان دقیق خود ، یا حتی پیشی می گیرند ، در حالی که تا 1.4 برابر کاهش در زمان تنظیم VL و مصرف GPU را تسهیل می کنند.کد ما در https://github.com/xjjxmu/qslaw منتشر می شود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.