ترجمه فارسی مقاله توجه یک حلقه مکعب صاف است

400,000 تومان

عنوان مقاله به انگلیسی Attention is a smoothed cubic spline
عنوان مقاله به فارسی ترجمه فارسی مقاله توجه یک حلقه مکعب صاف است
نویسندگان Zehua Lai, Lek-Heng Lim, Yucong Liu
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 20
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Artificial Intelligence,Machine Learning,Numerical Analysis,هوش مصنوعی , یادگیری ماشین , تحلیل عددی ,
توضیحات Submitted 18 August, 2024; originally announced August 2024. , Comments: 20 pages, 2 figures , MSC Class: 26B40; 41A15; 65D07; 68T01; 14P10; 13J30
توضیحات به فارسی ارائه شده در 18 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 20 صفحه ، 2 شکل ، کلاس MSC: 26B40 ؛41A15 ؛65d07 ؛68T01 ؛14p10 ؛13J30
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

We highlight a perhaps important but hitherto unobserved insight: The attention module in a transformer is a smoothed cubic spline. Viewed in this manner, this mysterious but critical component of a transformer becomes a natural development of an old notion deeply entrenched in classical approximation theory. More precisely, we show that with ReLU-activation, attention, masked attention, encoder-decoder attention are all cubic splines. As every component in a transformer is constructed out of compositions of various attention modules (= cubic splines) and feed forward neural networks (= linear splines), all its components — encoder, decoder, and encoder-decoder blocks; multilayered encoders and decoders; the transformer itself — are cubic or higher-order splines. If we assume the Pierce-Birkhoff conjecture, then the converse also holds, i.e., every spline is a ReLU-activated encoder. Since a spline is generally just $C^2$, one way to obtain a smoothed $C^\infty$-version is by replacing ReLU with a smooth activation; and if this activation is chosen to be SoftMax, we recover the original transformer as proposed by Vaswani et al. This insight sheds light on the nature of the transformer by casting it entirely in terms of splines, one of the best known and thoroughly understood objects in applied mathematics.

چکیده به فارسی (ترجمه ماشینی)

ما یک بینش مهم اما تا کنون بدون نظارت را برجسته می کنیم: ماژول توجه در یک ترانسفورماتور یک اسپین مکعب صاف است.به این شیوه ، این مؤلفه مرموز اما مهم یک ترانسفورماتور به یک توسعه طبیعی یک مفهوم قدیمی تبدیل می شود که عمیقاً در نظریه تقریبی کلاسیک وارد شده است.به طور دقیق تر ، ما نشان می دهیم که با فعال سازی Relu ، توجه ، توجه ماسک ، توجه رمزگذار رمزگذار همه اسپلین های مکعب هستند.همانطور که هر مؤلفه در یک ترانسفورماتور از ترکیبات ماژول های مختلف توجه (= اسپلین های مکعب) ساخته شده و شبکه های عصبی را به جلو (= اسپلین های خطی) تغذیه می کند ، تمام اجزای آن-رمزگذار ، رمزگذار و بلوک های رمزگذار-دکوراسیون.رمزگذارهای چند لایه و رمزگشایی ؛خود ترانسفورماتور-اسپلین های مکعب یا بالاتر هستند.اگر حدس پیرس-بیرخف را فرض کنیم ، آنگاه Converse نیز در آن وجود دارد ، یعنی هر اسپلین یک رمزگذار فعال شده با Relu است.از آنجا که یک spline به طور کلی فقط $ c^2 $ است ، یک راه برای به دست آوردن یک $ c^\ infty $-version با جایگزینی RELU با یک فعال سازی صاف است.و اگر این فعال سازی به عنوان SoftMax انتخاب شود ، ما ترانسفورماتور اصلی را مطابق پیشنهاد Vaswani و همکاران بازیابی می کنیم.این بینش با ریختن آن کاملاً از نظر اسپلین ، یکی از اشیاء شناخته شده و کاملاً درک شده در ریاضیات کاربردی ، ماهیت ترانسفورماتور را روشن می کند.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله توجه یک حلقه مکعب صاف است”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا