,

ترجمه فارسی مقاله یک هرس‌کننده پس از آموزش لایه‌ای مبتنی بر بهینه‌سازی محدب برای مدل‌های زبانی بزرگ

19,000 تومان640,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی A Convex-optimization-based Layer-wise Post-training Pruner for Large Language Models
عنوان مقاله به فارسی ترجمه فارسی مقاله یک هرس‌کننده پس از آموزش لایه‌ای مبتنی بر بهینه‌سازی محدب برای مدل‌های زبانی بزرگ
نویسندگان Pengxiang Zhao, Hanyu Hu, Ping Li, Yi Zheng, Zhefeng Wang, Xiaoming Yuan
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 16
دسته بندی موضوعات Machine Learning,Optimization and Control,یادگیری ماشین , بهینه سازی و کنترل ,
توضیحات Submitted 7 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 640,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Pruning is a critical strategy for compressing trained large language models (LLMs), aiming at substantial memory conservation and computational acceleration without compromising performance. However, existing pruning methods often necessitate inefficient retraining for billion-scale LLMs or rely on heuristic methods such as the optimal brain surgeon framework, which degrade performance. In this paper, we introduce FISTAPruner, the first post-training pruner based on convex optimization models and algorithms. Specifically, we propose a convex optimization model incorporating $ell_1$ norm to induce sparsity and utilize the FISTA solver for optimization. FISTAPruner incorporates an intra-layer cumulative error correction mechanism and supports parallel pruning. We comprehensively evaluate FISTAPruner on models such as OPT, LLaMA, LLaMA-2, and LLaMA-3 with 125M to 70B parameters under unstructured and 2:4 semi-structured sparsity, demonstrating superior performance over existing state-of-the-art methods across various language benchmarks.

چکیده به فارسی (ترجمه ماشینی)

هرس یک استراتژی مهم برای فشرده سازی مدلهای آموزش دیده زبان بزرگ (LLMS) است ، با هدف حفاظت از حافظه قابل توجه و شتاب محاسباتی بدون به خطر انداختن عملکرد.با این حال ، روش های هرس موجود اغلب نیاز به آموزش ناکارآمد برای LLM های در مقیاس میلیارد یا متکی به روش های اکتشافی مانند چارچوب بهینه جراح مغز ، که عملکرد را کاهش می دهد.در این مقاله ، ما Fistapruner را معرفی می کنیم ، اولین هرس بعد از آموزش بر اساس مدلهای بهینه سازی محدب و الگوریتم ها.به طور خاص ، ما یک مدل بهینه سازی محدب را ارائه می دهیم که شامل هنجار $ ell_1 $ برای القاء کمبود و استفاده از حل کننده فیستا برای بهینه سازی است.Fistapruner یک مکانیسم تصحیح خطای تجمعی داخل لایه را شامل می شود و از هرس موازی پشتیبانی می کند.ما به طور جامع Fistapruner را در مدل هایی مانند Opt ، Llama ، Llama-2 و Llama-3 با پارامترهای 125m تا 70B تحت فشار بدون ساختار و 2: 4 نیمه ساختار یافته ارزیابی می کنیم ، و عملکرد برتر را نسبت به روشهای پیشرفته و پیشرفته موجود نشان می دهد.معیارهای مختلف زبان.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله یک هرس‌کننده پس از آموزش لایه‌ای مبتنی بر بهینه‌سازی محدب برای مدل‌های زبانی بزرگ”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا