| عنوان مقاله به انگلیسی | Why Rectified Power Unit Networks Fail and How to Improve It: An Effective Theory Perspective |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله چرا شبکههای واحد برق یکسو شده شکست میخورند و چگونه میتوان آن را بهبود بخشید: یک دیدگاه تئوری مؤثر |
| نویسندگان | Taeyoung Kim, Myungjoo Kang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 25 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 4 August, 2024; originally announced August 2024. , Comments: 25 pages, 8 figures |
| توضیحات به فارسی | ارسال شده در 4 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 25 صفحه ، 8 شکل |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,000,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
The Rectified Power Unit (RePU) activation functions, unlike the Rectified Linear Unit (ReLU), have the advantage of being a differentiable function when constructing neural networks. However, it can be experimentally observed when deep layers are stacked, neural networks constructed with RePU encounter critical issues. These issues include the values exploding or vanishing and failure of training. And these happen regardless of the hyperparameter initialization. From the perspective of effective theory, we aim to identify the causes of this phenomenon and propose a new activation function that retains the advantages of RePU while overcoming its drawbacks.
چکیده به فارسی (ترجمه ماشینی)
توابع فعال سازی واحد قدرت اصلاح شده (Repu) ، بر خلاف واحد خطی اصلاح شده (RELU) ، این مزیت را دارند که هنگام ساخت شبکه های عصبی یک عملکرد متفاوت باشد.با این حال ، می توان به صورت تجربی مشاهده کرد که لایه های عمیق انباشته می شوند ، شبکه های عصبی ساخته شده با مشکلات مهم روبرو هستند.این موضوعات شامل مقادیر منفجر شدن یا ناپدید شدن و عدم موفقیت آموزش است.و این اتفاق می افتد بدون در نظر گرفتن اولیه سازی هایپرپارامتر.از منظر تئوری مؤثر ، ما هدف ما شناسایی علل این پدیده و پیشنهاد یک عملکرد فعال سازی جدید است که ضمن غلبه بر اشکالات آن ، مزایای repu را حفظ می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.