,

مقاله توجه لاگ خطی-عادی با تمرکز بی طرفانه

19,000 تومان800,000 تومان

عنوان مقاله به انگلیسی Linear Log-Normal Attention with Unbiased Concentration
عنوان مقاله به فارسی مقاله توجه لاگ نرمال خطی با تجمع بدون سوگیری
نویسندگان Yury Nahshan, Joseph Kampeas, Emir Haleva
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 0
دسته بندی موضوعات Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی ,
توضیحات Submitted 22 November, 2023; originally announced November 2023. , Comments: 22 pages, 20 figures, 5 tables, submitted to ICLR2024 , ACM Class: I.7.0; G.3
توضیحات به فارسی ارسال شده 22 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد ، نظرات: 22 صفحه ، 20 شکل ، 5 جدول ، ارسال شده به ICLR2024 ، کلاس ACM: I.7.0 ؛G.3

چکیده

Transformer models have achieved remarkable results in a wide range of applications. However, their scalability is hampered by the quadratic time and memory complexity of the self-attention mechanism concerning the sequence length. This limitation poses a substantial obstacle when dealing with long documents or high-resolution images. In this work, we study the self-attention mechanism by analyzing the distribution of the attention matrix and its concentration ability. Furthermore, we propose instruments to measure these quantities and introduce a novel self-attention mechanism, Linear Log-Normal Attention, designed to emulate the distribution and concentration behavior of the original self-attention. Our experimental results on popular natural language benchmarks reveal that our proposed Linear Log-Normal Attention outperforms other linearized attention alternatives, offering a promising avenue for enhancing the scalability of transformer models. Our code is available in supplementary materials.

چکیده به فارسی (ترجمه ماشینی)

مدل های ترانسفورماتور در طیف گسترده ای از برنامه ها به نتایج قابل توجهی رسیده اند.با این حال ، مقیاس پذیری آنها توسط زمان درجه دوم و پیچیدگی حافظه مکانیسم خودآگاهی در مورد طول دنباله مانع می شود.این محدودیت هنگام برخورد با اسناد طولانی یا تصاویر با وضوح بالا ، مانع قابل توجهی را ایجاد می کند.در این کار ، ما مکانیسم خود را با تجزیه و تحلیل توزیع ماتریس توجه و توانایی غلظت آن بررسی می کنیم.علاوه بر این ، ما ابزارهایی را برای اندازه گیری این مقادیر و معرفی یک مکانیسم جدید توجه خود ، توجه خطی به صورت خطی ، طراحی شده برای تقلید از توزیع و رفتار غلظت خودآزمایی اصلی پیشنهاد می کنیم.نتایج تجربی ما در معیارهای محبوب زبان طبیعی نشان می دهد که توجه خطی خطی پیشنهادی ما از سایر گزینه های توجه خطی استفاده می کند و یک خیابان امیدوار کننده برای تقویت مقیاس پذیری مدل های ترانسفورماتور ارائه می دهد.کد ما در مواد تکمیلی موجود است.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله توجه لاگ خطی-عادی با تمرکز بی طرفانه”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا