| عنوان مقاله به انگلیسی | A Survey of Mamba |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله بررسی مامبا |
| نویسندگان | Haohao Qu, Liangbo Ning, Rui An, Wenqi Fan, Tyler Derr, Hui Liu, Xin Xu, Qing Li |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 39 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 22 August, 2024; v1 submitted 2 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 22 اوت 2024 ؛V1 ارسال شده در 2 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 1,560,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
As one of the most representative DL techniques, Transformer architecture has empowered numerous advanced models, especially the large language models (LLMs) that comprise billions of parameters, becoming a cornerstone in deep learning. Despite the impressive achievements, Transformers still face inherent limitations, particularly the time-consuming inference resulting from the quadratic computation complexity of attention calculation. Recently, a novel architecture named Mamba, drawing inspiration from classical state space models (SSMs), has emerged as a promising alternative for building foundation models, delivering comparable modeling abilities to Transformers while preserving near-linear scalability concerning sequence length. This has sparked an increasing number of studies actively exploring Mamba’s potential to achieve impressive performance across diverse domains. Given such rapid evolution, there is a critical need for a systematic review that consolidates existing Mamba-empowered models, offering a comprehensive understanding of this emerging model architecture. In this survey, we therefore conduct an in-depth investigation of recent Mamba-associated studies, covering three main aspects: the advancements of Mamba-based models, the techniques of adapting Mamba to diverse data, and the applications where Mamba can excel. Specifically, we first review the foundational knowledge of various representative deep learning models and the details of Mamba-1&2 as preliminaries. Then, to showcase the significance of Mamba for AI, we comprehensively review the related studies focusing on Mamba models’ architecture design, data adaptability, and applications. Finally, we present a discussion of current limitations and explore various promising research directions to provide deeper insights for future investigations.
چکیده به فارسی (ترجمه ماشینی)
به عنوان یکی از نماینده ترین تکنیک های DL ، معماری ترانسفورماتور چندین مدل پیشرفته ، به ویژه مدل های بزرگ زبان (LLM) را که شامل میلیاردها پارامتر است ، توانمند کرده و تبدیل به یک سنگ بنای در یادگیری عمیق می شود.با وجود دستاوردهای چشمگیر ، ترانسفورماتورها هنوز با محدودیت های ذاتی روبرو هستند ، به ویژه استنباط وقت گیر ناشی از پیچیدگی محاسبات درجه دوم محاسبه توجه.به تازگی ، یک معماری جدید به نام Mamba ، الهام بخش از مدل های فضای کلاسیک حالت (SSMS) ، به عنوان یک جایگزین امیدوار کننده برای مدل های بنیاد ساختمانی ظاهر شده است ، و در عین حال حفظ مقیاس پذیری تقریباً خطی در مورد طول دنباله ، توانایی های مدل سازی قابل مقایسه را به ترانسفورماتورها ارائه می دهد.این امر باعث شده است که تعداد فزاینده ای از مطالعات به طور فعال در مورد پتانسیل مامبا برای دستیابی به عملکرد چشمگیر در حوزه های متنوع ، به طور فعال ایجاد شود.با توجه به چنین تکامل سریع ، یک نیاز اساسی به یک بررسی منظم وجود دارد که مدلهای موجود در MAMB-EMPANE را تثبیت می کند و درک کاملی از این معماری مدل نوظهور ارائه می دهد.در این بررسی ، بنابراین ما یک تحقیق عمیق از مطالعات اخیر MAMBA را انجام می دهیم ، سه جنبه اصلی را پوشش می دهد: پیشرفت مدل های مبتنی بر مامبا ، تکنیک تطبیق Mamba با داده های متنوع ، و برنامه هایی که Mamba می تواند از آن خارج شود.به طور خاص ، ما ابتدا دانش بنیادی مدل های مختلف یادگیری عمیق نماینده و جزئیات Mamba-1 & 2 را به عنوان مقدماتی مرور می کنیم.سپس ، برای نشان دادن اهمیت Mamba برای هوش مصنوعی ، ما به طور جامع مطالعات مرتبط با تمرکز بر طراحی معماری مدل های Mamba ، سازگاری داده ها و برنامه ها را مرور می کنیم.سرانجام ، ما بحثی در مورد محدودیت های فعلی ارائه می دهیم و مسیرهای مختلف تحقیق امیدوارکننده را برای ارائه بینش عمیق تر برای تحقیقات آینده کشف می کنیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.