| عنوان مقاله به انگلیسی | SAMSA: Efficient Transformer for Many Data Modalities |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله SAMSA: ترانسفورماتور کارآمد برای بسیاری از روشهای داده |
| نویسندگان | Minh Lenhat, Viet Anh Nguyen, Khoa Nguyen, Duong Duc Hieu, Dao Huu Hung, Truong Son Hy |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 25 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 18 August, 2024; v1 submitted 9 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارائه شده در 18 اوت 2024 ؛V1 ارسال شده در 9 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,000,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
The versatility of self-attention mechanism earned transformers great success in almost all data modalities, with limitations on the quadratic complexity and difficulty of training. Efficient transformers, on the other hand, often rely on clever data-modality-dependent construction to get over the quadratic complexity of transformers. This greatly hinders their applications on different data modalities, which is one of the pillars of contemporary foundational modeling. In this paper, we lay the groundwork for efficient foundational modeling by proposing SAMSA – SAMpling-Self-Attention, a context-aware linear complexity self-attention mechanism that works well on multiple data modalities. Our mechanism is based on a differentiable sampling without replacement method we discovered. This enables the self-attention module to attend to the most important token set, where the importance is defined by data. Moreover, as differentiability is not needed in inference, the sparse formulation of our method costs little time overhead, further lowering computational costs. In short, SAMSA achieved competitive or even SOTA results on many benchmarks, while being faster in inference, compared to other very specialized models. Against full self-attention, real inference time significantly decreases while performance ranges from negligible degradation to outperformance. We release our source code in the repository: https://github.com/HySonLab/SAMSA
چکیده به فارسی (ترجمه ماشینی)
تطبیق پذیری مکانیسم خودآگاهی تقریباً در تمام روشهای داده ، با محدودیت در پیچیدگی و دشواری درجه دوم ، موفقیت بزرگی را در همه روشهای داده به دست آورد.ترانسفورماتورهای کارآمد ، از طرف دیگر ، اغلب به ساخت و سازهای وابسته به داده های هوشمندانه متکی هستند تا از پیچیدگی درجه دوم ترانسفورماتورها استفاده کنند.این امر به شدت مانع کاربردهای آنها در روشهای مختلف داده می شود ، که یکی از ستون های مدل سازی بنیادی معاصر است.در این مقاله ، ما با ارائه SAMSA-نمونه گیری خود ، یک مکانیسم پیچیدگی خطی آگاهانه که به خوبی در چندین روش داده انجام می شود ، زمینه را برای مدل سازی بنیادی کارآمد قرار می دهیم.مکانیسم ما مبتنی بر نمونه گیری متفاوت و بدون روش جایگزینی است که ما کشف کردیم.این امر ماژول خود را قادر می سازد تا در مهمترین مجموعه نشانه ها ، جایی که اهمیت توسط داده ها تعریف می شود ، شرکت کند.علاوه بر این ، از آنجا که به استنتاج نیاز به تمایز لازم نیست ، فرمولاسیون پراکنده روش ما هزینه کمی از سربار را دارد و هزینه های محاسباتی را بیشتر می کند.به طور خلاصه ، SAMSA در مقایسه با سایر مدلهای بسیار تخصصی ، نتایج رقابتی یا حتی SOTA را در بسیاری از معیارها به دست آورد ، در حالی که سریعتر در استنتاج قرار دارد.در برابر توجه کامل ، زمان استنباط واقعی به طور قابل توجهی کاهش می یابد در حالی که عملکرد از تخریب ناچیز تا عملکرد بهتر است.ما کد منبع خود را در مخزن منتشر می کنیم: https://github.com/hysonlab/samsa
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.