,

ترجمه فارسی مقاله توجه ویژه: توجه در فضای رتبه پایین برای فشرده‌سازی حافظه نهان KV

19,000 تومان480,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Eigen Attention: Attention in Low-Rank Space for KV Cache Compression
عنوان مقاله به فارسی ترجمه فارسی مقاله توجه ویژه: توجه در فضای رتبه پایین برای فشرده‌سازی حافظه نهان KV
نویسندگان Utkarsh Saxena, Gobinda Saha, Sakshi Choudhary, Kaushik Roy
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 12
دسته بندی موضوعات Machine Learning,Artificial Intelligence,Computation and Language,یادگیری ماشین , هوش مصنوعی , محاسبات و زبان ,
توضیحات Submitted 10 August, 2024; originally announced August 2024. , Comments: 12 page, 6 figures, 6 tables
توضیحات به فارسی ارسال شده 10 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 12 صفحه ، 6 شکل ، 6 جدول

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 480,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Large language models (LLMs) represent a groundbreaking advancement in the domain of natural language processing due to their impressive reasoning abilities. Recently, there has been considerable interest in increasing the context lengths for these models to enhance their applicability to complex tasks. However, at long context lengths and large batch sizes, the key-value (KV) cache, which stores the attention keys and values, emerges as the new bottleneck in memory usage during inference. To address this, we propose Eigen Attention, which performs the attention operation in a low-rank space, thereby reducing the KV cache memory overhead. Our proposed approach is orthogonal to existing KV cache compression techniques and can be used synergistically with them. Through extensive experiments over OPT, MPT, and Llama model families, we demonstrate that Eigen Attention results in up to 40% reduction in KV cache sizes and up to 60% reduction in attention operation latency with minimal drop in performance.

چکیده به فارسی (ترجمه ماشینی)

مدلهای بزرگ زبان (LLM) به دلیل توانایی های استدلال چشمگیر آنها ، پیشرفت پیشگامانه در حوزه پردازش زبان طبیعی را نشان می دهند.اخیراً ، علاقه قابل توجهی به افزایش طول زمینه برای این مدل ها برای افزایش کاربرد آنها در کارهای پیچیده وجود دارد.با این حال ، در طول زمینه های طولانی و اندازه های دسته ای بزرگ ، حافظه نهان ارزش کلیدی (kV) ، که کلیدها و مقادیر توجه را ذخیره می کند ، به عنوان تنگنای جدید در استفاده از حافظه در هنگام استنتاج ظاهر می شود.برای پرداختن به این موضوع ، ما توجه ویژه ای را پیشنهاد می کنیم ، که عملکرد توجه را در یک فضای کم رتبه انجام می دهد و از این طریق حافظه حافظه پنهان KV را کاهش می دهد.رویکرد پیشنهادی ما برای تکنیک های فشرده سازی حافظه پنهان KV متعامد است و می تواند با آنها هم افزایی استفاده شود.از طریق آزمایش های گسترده در مورد خانواده های مدل OPT ، MPT و LLAMA ، ما نشان می دهیم که توجه Eigen منجر به کاهش 40 ٪ در اندازه حافظه نهان KV و کاهش 60 ٪ در تأخیر عملکرد توجه با حداقل افت عملکرد می شود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله توجه ویژه: توجه در فضای رتبه پایین برای فشرده‌سازی حافظه نهان KV”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا