,

ترجمه فارسی مقاله STBLLM: شکستن سد تک بیتی با LLM های دودویی ساختاریافته

19,000 تومان840,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی STBLLM: Breaking the 1-Bit Barrier with Structured Binary LLMs
عنوان مقاله به فارسی ترجمه فارسی مقاله STBLLM: شکستن سد تک بیتی با LLM های دودویی ساختاریافته
نویسندگان Peijie Dong, Lujun Li, Dayou Du, Yuhan Chen, Zhenheng Tang, Qiang Wang, Wei Xue, Wenhan Luo, Qifeng Liu, Yike Guo, Xiaowen Chu
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 21
دسته بندی موضوعات Machine Learning,Computation and Language,یادگیری ماشین , محاسبه و زبان ,
توضیحات Submitted 3 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 3 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 99,000 تومان

سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 840,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

In this paper, we present STBLLM, the first structural binarization framework for compressing Large Language Models (LLMs) to less than 1-bit precision. LLMs have achieved remarkable performance, but their heavy memory requirements have hindered widespread adoption, particularly on resource-constrained devices. Binarization, which quantifies weights to a mere 1-bit, achieves a milestone in increasing computational efficiency. However, we observe that some weights in binarized LLMs can be randomly flipped without significant performance degradation, indicating the potential for further compression. To exploit this, our STBLLM employs an N:M sparsity to perform structural binarization of the weights. First, we introduce a new Standardized Importance (SI) metric that considers weight magnitude and input feature norm to better evaluate weight significance. Then, we propose a layer-wise approach where different layers of the LLM can be sparsified with varying N:M ratios, balancing compression and accuracy. Finally, we use residual approximation with double binarization to preserve information for salient weights. In addition, we utilize a fine-grained grouping strategy for less important weights that applies different quantization schemes to sparse, intermediate, and dense regions. We conduct extensive experiments on various language models, including the LLaMA-1/2/3, OPT family, and Mistral, to evaluate the effectiveness of STBLLM. The results demonstrate that our approach performs better than other compressed binarization LLM methods while significantly reducing memory requirements.

چکیده به فارسی (ترجمه ماشینی)

در این مقاله ، ما STBLLM ، اولین چارچوب باناریزاسیون ساختاری برای فشرده سازی مدلهای بزرگ زبان (LLM) را به دقت کمتر از 1 بیتی ارائه می دهیم.LLM ها به عملکرد قابل توجهی رسیده اند ، اما نیازهای سنگین حافظه آنها مانع پذیرش گسترده ، به ویژه در دستگاه های محدود شده منابع شده است.باینریسیون ، که وزن را به یک بیت فقط 1 می دهد ، در افزایش کارایی محاسباتی به یک نقطه عطف می رسد.با این حال ، ما مشاهده می کنیم که برخی از وزنهای موجود در LLM های باینری شده می توانند به طور تصادفی بدون تخریب عملکرد قابل توجهی تلنگر شوند ، که نشانگر پتانسیل فشرده سازی بیشتر است.برای بهره برداری از این ، STBLLM ما از کمبود N: M برای انجام باناریسیون ساختاری وزنه ها استفاده می کند.اول ، ما یک متریک اهمیت استاندارد استاندارد (SI) را معرفی می کنیم که میزان وزن و هنجار ویژگی ورودی را برای ارزیابی بهتر اهمیت در نظر می گیرد.سپس ، ما یک رویکرد لایه ای را پیشنهاد می کنیم که در آن لایه های مختلف LLM با نسبت N: M متفاوت ، می توان از آن استفاده کرد.سرانجام ، ما از تقریب باقیمانده با باینرینگ دوتایی برای حفظ اطلاعات برای وزن های برجسته استفاده می کنیم.علاوه بر این ، ما از یک استراتژی گروه بندی ریز دانه برای وزنهای کم اهمیت استفاده می کنیم که طرح های کمیت مختلف را در مناطق پراکنده ، متوسط ​​و متراکم اعمال می کند.ما برای ارزیابی اثربخشی STBLLM ، آزمایش های گسترده ای را در مدل های مختلف زبان ، از جمله Llama-1/2/3 ، Family Opt و Mistral انجام می دهیم.نتایج نشان می دهد که رویکرد ما عملکرد بهتری نسبت به سایر روشهای Binarization LLM فشرده شده دارد و در عین حال نیازهای حافظه را به میزان قابل توجهی کاهش می دهد.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله STBLLM: شکستن سد تک بیتی با LLM های دودویی ساختاریافته”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا