| عنوان مقاله به انگلیسی | Convergence rates of stochastic gradient method with independent sequences of step-size and momentum weight |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله نرخهای همگرایی روش گرادیان تصادفی با دنبالههای مستقل از اندازه گام و وزن تکانه |
| نویسندگان | Wen-Liang Hwang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 15 |
| دسته بندی موضوعات | Machine Learning,Optimization and Control,یادگیری ماشین , بهینه سازی و کنترل , |
| توضیحات | Submitted 31 July, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال 31 ژوئیه 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 600,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
In large-scale learning algorithms, the momentum term is usually included in the stochastic sub-gradient method to improve the learning speed because it can navigate ravines efficiently to reach a local minimum. However, step-size and momentum weight hyper-parameters must be appropriately tuned to optimize convergence. We thus analyze the convergence rate using stochastic programming with Polyak’s acceleration of two commonly used step-size learning rates: “diminishing-to-zero” and “constant-and-drop” (where the sequence is divided into stages and a constant step-size is applied at each stage) under strongly convex functions over a compact convex set with bounded sub-gradients. For the former, we show that the convergence rate can be written as a product of exponential in step-size and polynomial in momentum weight. Our analysis justifies the convergence of using the default momentum weight setting and the diminishing-to-zero step-size sequence in large-scale machine learning software. For the latter, we present the condition for the momentum weight sequence to converge at each stage.
چکیده به فارسی (ترجمه ماشینی)
در الگوریتم های یادگیری در مقیاس بزرگ ، اصطلاح حرکت معمولاً در روش زیر شغلی تصادفی برای بهبود سرعت یادگیری گنجانده می شود زیرا می تواند به سمت دره ها به طور مؤثر حرکت کند تا به حداقل محلی برسد.با این حال ، برای بهینه سازی همگرایی ، پارامترهای بیش از حد وزن و اندازه و حرکت باید به طور مناسب تنظیم شوند.بنابراین ، ما میزان همگرایی را با استفاده از برنامه نویسی تصادفی با شتاب Polyak از دو نرخ یادگیری اندازه گیری متداول به اندازه گیری تجزیه و تحلیل می کنیم: “ کاهش به صفر “و` ثابت و رها کردن “(جایی که دنباله به مراحل تقسیم می شود و ثابت استاندازه گام در هر مرحله اعمال می شود) تحت توابع به شدت محدب بر روی یک مجموعه محدب جمع و جور با زیر گروههای محدود.برای سابق ، ما نشان می دهیم که میزان همگرایی را می توان به عنوان محصولی از نمایی در اندازه گام و چند جمله ای در وزن حرکت نوشت.تجزیه و تحلیل ما همگرایی استفاده از تنظیم وزن پیش فرض حرکت و دنباله اندازه گام به گام به صفر را در نرم افزار یادگیری ماشین در مقیاس بزرگ توجیه می کند.برای دومی ، ما شرایط را برای توالی وزن حرکت در هر مرحله ارائه می دهیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.