ترجمه فارسی مقاله باز کردن قدرت LSTM برای پیش بینی سری های زمانی طولانی مدت

180,000 تومان

عنوان مقاله به انگلیسی Unlocking the Power of LSTM for Long Term Time Series Forecasting
عنوان مقاله به فارسی ترجمه فارسی مقاله باز کردن قدرت LSTM برای پیش بینی سری های زمانی طولانی مدت
نویسندگان Yaxuan Kong, Zepu Wang, Yuqi Nie, Tian Zhou, Stefan Zohren, Yuxuan Liang, Peng Sun, Qingsong Wen
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 9
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,یادگیری ماشین ,
توضیحات Submitted 19 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 19 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Traditional recurrent neural network architectures, such as long short-term memory neural networks (LSTM), have historically held a prominent role in time series forecasting (TSF) tasks. While the recently introduced sLSTM for Natural Language Processing (NLP) introduces exponential gating and memory mixing that are beneficial for long term sequential learning, its potential short memory issue is a barrier to applying sLSTM directly in TSF. To address this, we propose a simple yet efficient algorithm named P-sLSTM, which is built upon sLSTM by incorporating patching and channel independence. These modifications substantially enhance sLSTM’s performance in TSF, achieving state-of-the-art results. Furthermore, we provide theoretical justifications for our design, and conduct extensive comparative and analytical experiments to fully validate the efficiency and superior performance of our model.

چکیده به فارسی (ترجمه ماشینی)

معماری های سنتی شبکه عصبی مکرر ، مانند شبکه های عصبی حافظه کوتاه مدت (LSTM) ، از لحاظ تاریخی نقش برجسته ای در کارهای پیش بینی سری زمانی (TSF) داشته اند.در حالی که SLSTM که اخیراً معرفی شده است برای پردازش زبان طبیعی (NLP) گیت نمایی و اختلاط حافظه را معرفی می کند که برای یادگیری متوالی طولانی مدت مفید است ، مسئله حافظه کوتاه بالقوه آن مانعی برای استفاده مستقیم SLSTM در TSF است.برای پرداختن به این موضوع ، ما یک الگوریتم ساده و در عین حال کارآمد به نام P-SLSTM را پیشنهاد می کنیم ، که با استفاده از پچ و استقلال کانال بر روی SLSTM ساخته شده است.این تغییرات به طور قابل توجهی عملکرد SLSTM را در TSF افزایش می دهد و به نتایج پیشرفته می رسد.علاوه بر این ، ما توجیهات نظری را برای طراحی خود ارائه می دهیم و آزمایش های تطبیقی ​​و تحلیلی گسترده ای را انجام می دهیم تا به طور کامل کارایی و عملکرد برتر مدل خود را تأیید کنیم.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله باز کردن قدرت LSTM برای پیش بینی سری های زمانی طولانی مدت”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا