| عنوان مقاله به انگلیسی | Enhanced Structured State Space Models via Grouped FIR Filtering and Attention Sink Mechanisms |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله کشف دینامیک تعقیب خودرو از دادههای مسیر حرکت از طریق یادگیری عمیق |
| نویسندگان | Tian Meng, Yang Tao, Wuliang Yin |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 5 |
| دسته بندی موضوعات | Computation and Language,Machine Learning,محاسبه و زبان , یادگیری ماشین , |
| توضیحات | Submitted 31 July, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال 31 ژوئیه 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 200,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Structured State Space Models (SSMs) have emerged as compelling alternatives to Transformer architectures, offering linear-time complexity and superior performance in various sequence modeling tasks. Despite their advantages, SSMs like the original Mamba-2 face training difficulties due to the sensitivities introduced by the extended series of recurrent matrix multiplications. In this paper, we propose an advanced architecture that mitigates these challenges by decomposing A-multiplications into multiple groups and optimizing positional encoding through Grouped Finite Impulse Response (FIR) filtering. This new structure, denoted as Grouped FIR-enhanced SSM (GFSSM), employs semiseparable matrices for efficient computation. Furthermore, inspired by the “attention sink” phenomenon identified in streaming language models, we incorporate a similar mechanism to enhance the stability and performance of our model over extended sequences. Our approach further bridges the gap between SSMs and Transformer architectures, offering a viable path forward for scalable and high-performing sequence modeling.
چکیده به فارسی (ترجمه ماشینی)
مدل های فضایی حالت ساختاری (SSM) به عنوان گزینه های قانع کننده برای معماری های ترانسفورماتور ظاهر شده اند و پیچیدگی زمان خطی و عملکرد برتر را در کارهای مختلف مدل سازی توالی ارائه می دهند.علیرغم مزایای آنها ، SSM مانند مشکلات اصلی آموزش MAMBA-2 به دلیل حساسیت های معرفی شده توسط سری گسترده ضرب ماتریس مکرر.در این مقاله ، ما یک معماری پیشرفته را پیشنهاد می کنیم که با تجزیه A-Multiplications در چندین گروه و بهینه سازی رمزگذاری موقعیت از طریق فیلتر پاسخ تکانه گروهی (FIR) ، این چالش ها را کاهش می دهد.این ساختار جدید ، که به عنوان گروه SSM با افزایش گروه (GFSSM) مشخص شده است ، از ماتریس های نیمه جانبی برای محاسبات کارآمد استفاده می کند.علاوه بر این ، با الهام از پدیده “سینک توجه” که در مدل های زبان جریان مشخص شده است ، ما مکانیسم مشابهی را برای تقویت ثبات و عملکرد مدل خود نسبت به توالی های گسترده گنجانده ایم.رویکرد ما بیشتر شکاف بین SSMS و معماری های ترانسفورماتور را ایجاد می کند و یک مسیر مناسب را برای مدل سازی توالی مقیاس پذیر و با عملکرد بالا ارائه می دهد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.