ترجمه فارسی مقاله Grassnet: مدل فضایی ایالتی با شبکه عصبی نمودار ملاقات می کند

720,000 تومان

عنوان مقاله به انگلیسی S$^3$Attention: Improving Long Sequence Attention with Smoothed Skeleton Sketching
عنوان مقاله به فارسی ترجمه فارسی مقاله Grassnet: مدل فضایی ایالتی با شبکه عصبی نمودار ملاقات می کند
نویسندگان Xue Wang, Tian Zhou, Jianqing Zhu, Jialin Liu, Kun Yuan, Tao Yao, Wotao Yin, Rong Jin, HanQin Cai
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 18
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,Computer Vision and Pattern Recognition,Image and Video Processing,Machine Learning,یادگیری ماشین , چشم انداز رایانه و تشخیص الگوی , پردازش تصویر و فیلم , یادگیری ماشین ,
توضیحات Submitted 17 September, 2024; v1 submitted 16 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده 17 سپتامبر 2024 ؛V1 ارسال شده 16 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Attention based models have achieved many remarkable breakthroughs in numerous applications. However, the quadratic complexity of Attention makes the vanilla Attention based models hard to apply to long sequence tasks. Various improved Attention structures are proposed to reduce the computation cost by inducing low rankness and approximating the whole sequence by sub-sequences. The most challenging part of those approaches is maintaining the proper balance between information preservation and computation reduction: the longer sub-sequences used, the better information is preserved, but at the price of introducing more noise and computational costs. In this paper, we propose a smoothed skeleton sketching based Attention structure, coined S$^3$Attention, which significantly improves upon the previous attempts to negotiate this trade-off. S$^3$Attention has two mechanisms to effectively minimize the impact of noise while keeping the linear complexity to the sequence length: a smoothing block to mix information over long sequences and a matrix sketching method that simultaneously selects columns and rows from the input matrix. We verify the effectiveness of S$^3$Attention both theoretically and empirically. Extensive studies over Long Range Arena (LRA) datasets and six time-series forecasting show that S$^3$Attention significantly outperforms both vanilla Attention and other state-of-the-art variants of Attention structures.

چکیده به فارسی (ترجمه ماشینی)

مدلهای مبتنی بر توجه در بسیاری از برنامه های کاربردی به پیشرفت های چشمگیر زیادی رسیده اند.با این حال ، پیچیدگی درجه دوم توجه باعث می شود که مدل های مبتنی بر توجه وانیل در کارهای توالی طولانی اعمال شود.ساختارهای مختلف توجه بهبود یافته برای کاهش هزینه محاسبات با القاء رتبه پایین و تقریب کل دنباله توسط توالی های زیر پیشنهاد شده است.چالش برانگیزترین بخش این رویکردها ، حفظ تعادل مناسب بین حفظ اطلاعات و کاهش محاسبه است: هرچه زیرگذرهای طولانی تر استفاده شود ، اطلاعات بهتر حفظ می شود ، اما با قیمت معرفی بیشتر سر و صدای و هزینه های محاسباتی.در این مقاله ، ما یک ساختار توجه مبتنی بر اسکلت صاف را پیشنهاد می کنیم ، توجه S $ 3 $ را به خود اختصاص می دهیم ، که به تلاش های قبلی برای مذاکره در مورد این تجارت ، به طور قابل توجهی بهبود می یابد.S $ 3 $ توجه دارای دو مکانیسم برای به حداقل رساندن تأثیر سر و صدا در حالی که پیچیدگی خطی را به طول دنباله نگه می دارد: یک بلوک هموار سازی برای مخلوط کردن اطلاعات در توالی های طولانی و یک روش طراحی ماتریس که همزمان ستون ها و ردیف ها را از ماتریس ورودی انتخاب می کندبشرما اثربخشی توجه S $ 3 $ را از نظر تئوری و تجربی تأیید می کنیم.مطالعات گسترده در مورد مجموعه داده های Arena (LRA) و شش پیش بینی سری زمانی نشان می دهد که توجه S $ 3 $ به طور قابل توجهی از توجه وانیل و سایر انواع پیشرفته ساختارهای توجه بهتر است.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله Grassnet: مدل فضایی ایالتی با شبکه عصبی نمودار ملاقات می کند”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا