| عنوان مقاله به انگلیسی | Unlocking the Power of LSTM for Long Term Time Series Forecasting | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله باز کردن قدرت LSTM برای پیش بینی سری های زمانی طولانی مدت | ||||||||
| نویسندگان | Yaxuan Kong, Zepu Wang, Yuqi Nie, Tian Zhou, Stefan Zohren, Yuxuan Liang, Peng Sun, Qingsong Wen | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 9 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , | ||||||||
| توضیحات | Submitted 19 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارسال شده در 19 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Traditional recurrent neural network architectures, such as long short-term memory neural networks (LSTM), have historically held a prominent role in time series forecasting (TSF) tasks. While the recently introduced sLSTM for Natural Language Processing (NLP) introduces exponential gating and memory mixing that are beneficial for long term sequential learning, its potential short memory issue is a barrier to applying sLSTM directly in TSF. To address this, we propose a simple yet efficient algorithm named P-sLSTM, which is built upon sLSTM by incorporating patching and channel independence. These modifications substantially enhance sLSTM’s performance in TSF, achieving state-of-the-art results. Furthermore, we provide theoretical justifications for our design, and conduct extensive comparative and analytical experiments to fully validate the efficiency and superior performance of our model.
چکیده به فارسی (ترجمه ماشینی)
معماری های سنتی شبکه عصبی مکرر ، مانند شبکه های عصبی حافظه کوتاه مدت (LSTM) ، از لحاظ تاریخی نقش برجسته ای در کارهای پیش بینی سری زمانی (TSF) داشته اند.در حالی که SLSTM که اخیراً معرفی شده است برای پردازش زبان طبیعی (NLP) گیت نمایی و اختلاط حافظه را معرفی می کند که برای یادگیری متوالی طولانی مدت مفید است ، مسئله حافظه کوتاه بالقوه آن مانعی برای استفاده مستقیم SLSTM در TSF است.برای پرداختن به این موضوع ، ما یک الگوریتم ساده و در عین حال کارآمد به نام P-SLSTM را پیشنهاد می کنیم ، که با استفاده از پچ و استقلال کانال بر روی SLSTM ساخته شده است.این تغییرات به طور قابل توجهی عملکرد SLSTM را در TSF افزایش می دهد و به نتایج پیشرفته می رسد.علاوه بر این ، ما توجیهات نظری را برای طراحی خود ارائه می دهیم و آزمایش های تطبیقی و تحلیلی گسترده ای را انجام می دهیم تا به طور کامل کارایی و عملکرد برتر مدل خود را تأیید کنیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.