ترجمه فارسی مقاله PRformer: ترانسفورماتور بازگشتی هرمی برای پیش بینی سری های زمانی چند متغیره

240,000 تومان

عنوان مقاله به انگلیسی PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting
عنوان مقاله به فارسی ترجمه فارسی مقاله PRformer: ترانسفورماتور بازگشتی هرمی برای پیش بینی سری های زمانی چند متغیره
نویسندگان Yongbo Yu, Weizhong Yu, Feiping Nie, Xuelong Li
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 12
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,یادگیری ماشین ,
توضیحات Submitted 19 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 19 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

The self-attention mechanism in Transformer architecture, invariant to sequence order, necessitates positional embeddings to encode temporal order in time series prediction. We argue that this reliance on positional embeddings restricts the Transformer’s ability to effectively represent temporal sequences, particularly when employing longer lookback windows. To address this, we introduce an innovative approach that combines Pyramid RNN embeddings(PRE) for univariate time series with the Transformer’s capability to model multivariate dependencies. PRE, utilizing pyramidal one-dimensional convolutional layers, constructs multiscale convolutional features that preserve temporal order. Additionally, RNNs, layered atop these features, learn multiscale time series representations sensitive to sequence order. This integration into Transformer models with attention mechanisms results in significant performance enhancements. We present the PRformer, a model integrating PRE with a standard Transformer encoder, demonstrating state-of-the-art performance on various real-world datasets. This performance highlights the effectiveness of our approach in leveraging longer lookback windows and underscores the critical role of robust temporal representations in maximizing Transformer’s potential for prediction tasks. Code is available at this repository: \url{https://github.com/usualheart/PRformer}.

چکیده به فارسی (ترجمه ماشینی)

مکانیسم خودآگاهی در معماری ترانسفورماتور ، متغیر به ترتیب توالی ، نیاز به تعبیه های موقعیتی برای رمزگذاری ترتیب زمانی در پیش بینی سری زمانی دارد.ما استدلال می کنیم که این اعتماد به جاسازی های موقعیتی ، توانایی ترانسفورماتور را در نمایش موثر توالی های زمانی ، به ویژه هنگام استفاده از پنجره های طولانی تر ، محدود می کند.برای پرداختن به این موضوع ، ما یک رویکرد نوآورانه را معرفی می کنیم که ترکیبی از تعبیه RNN هرمی (PRE) برای سری زمانی یک متغیره با توانایی ترانسفورماتور برای مدل سازی وابستگی های چند متغیره است.پیش ، با استفاده از لایه های همبستگی یک بعدی هرمی ، ویژگی های همخوانی چند طبقه ای را ایجاد می کند که نظم زمانی را حفظ می کنند.علاوه بر این ، RNN ها ، که در بالای این ویژگی ها قرار دارند ، بازنمودهای سری زمانی چند مقیاس را به ترتیب دنباله حساس می آموزند.این ادغام در مدل های ترانسفورماتور با مکانیسم های توجه منجر به پیشرفت عملکرد قابل توجهی می شود.ما PrFormer را ارائه می دهیم ، مدلی که PRE را با یک رمزگذار ترانسفورماتور استاندارد ادغام می کند و عملکرد پیشرفته ای را در مجموعه داده های مختلف در دنیای واقعی نشان می دهد.این عملکرد اثربخشی رویکرد ما را در استفاده از ویندوزهای برگشت طولانی تر برجسته می کند و نقش اساسی بازنمایی های زمانی قوی را در به حداکثر رساندن پتانسیل ترانسفورماتور برای کارهای پیش بینی تأکید می کند.کد در این مخزن موجود است: \ url {https://github.com/usualheart/prformer.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله PRformer: ترانسفورماتور بازگشتی هرمی برای پیش بینی سری های زمانی چند متغیره”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا