| عنوان مقاله به انگلیسی | Gradient-Variation Online Learning under Generalized Smoothness | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری آنلاین گرادیان-تغییر تحت همواری تعمیم یافته | ||||||||
| نویسندگان | Yan-Feng Xie, Peng Zhao, Zhi-Hua Zhou | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 37 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Optimization and Control,یادگیری ماشین , بهینه سازی و کنترل , | ||||||||
| توضیحات | Submitted 16 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارائه شده 16 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Gradient-variation online learning aims to achieve regret guarantees that scale with the variations in the gradients of online functions, which has been shown to be crucial for attaining fast convergence in games and robustness in stochastic optimization, hence receiving increased attention. Existing results often require the smoothness condition by imposing a fixed bound on the gradient Lipschitzness, but this may not hold in practice. Recent efforts in neural network optimization suggest a generalized smoothness condition, allowing smoothness to correlate with gradient norms. In this paper, we systematically study gradient-variation online learning under generalized smoothness. To this end, we extend the classic optimistic mirror descent algorithm to derive gradient-variation bounds by conducting stability analysis over the optimization trajectory and exploiting smoothness locally. Furthermore, we explore universal online learning, designing a single algorithm enjoying optimal gradient-variation regrets for convex and strongly convex functions simultaneously without knowing curvature information. The algorithm adopts a two-layer structure with a meta-algorithm running over a group of base-learners. To ensure favorable guarantees, we have designed a new meta-algorithm that is Lipschitz-adaptive to handle potentially unbounded gradients and meanwhile ensures second-order regret to cooperate with base-learners. Finally, we provide implications of our findings and obtain new results in fast-rate games and stochastic extended adversarial optimization.
چکیده به فارسی (ترجمه ماشینی)
یادگیری آنلاین متغیر گرادیان با هدف دستیابی به ضمانت های پشیمانی که مقیاس با تغییرات در شیب توابع آنلاین است ، که نشان داده شده برای دستیابی به همگرایی سریع در بازی ها و استحکام در بهینه سازی تصادفی است ، از این رو توجه بیشتری را به خود جلب می کند.نتایج موجود غالباً با تحمیل محدودیت ثابت بر روی شیب شیب ، نیاز به وضعیت صافی دارد ، اما این ممکن است در عمل نباشد.تلاش های اخیر در بهینه سازی شبکه عصبی حاکی از یک وضعیت صافی عمومی است که باعث می شود صافی با هنجارهای شیب ارتباط برقرار کند.در این مقاله ، ما به طور سیستماتیک یادگیری آنلاین گرادیان-متغیر را تحت صافی عمومی مطالعه می کنیم.برای این منظور ، ما الگوریتم نزول آینه خوش بینانه کلاسیک را گسترش می دهیم تا با انجام تجزیه و تحلیل پایداری در مسیر بهینه سازی و بهره برداری از صافی محلی ، مرزهای متغیر شیب را بدست آوریم.علاوه بر این ، ما یادگیری آنلاین جهانی را کشف می کنیم و یک الگوریتم واحد را طراحی می کنیم که از پشیمانی بهینه گرادیت متغیر برای محدب و عملکردهای محدب به طور همزمان و بدون اطلاع از اطلاعات انحنای استفاده می کنیم.این الگوریتم یک ساختار دو لایه را با متاآلگوریتم در حال اجرا بر روی گروهی از یادگیری های پایه اتخاذ می کند.برای اطمینان از ضمانت های مطلوب ، ما متاآلگوریتم جدیدی را طراحی کرده ایم که به Lipschitz سازگار است تا بتواند شیب های بالقوه بی حد و حصر را کنترل کند و در عین حال پشیمانی مرتبه دوم را برای همکاری با یادگیری های پایه تضمین می کند.سرانجام ، ما پیامدهای یافته های خود را ارائه می دهیم و نتایج جدیدی را در بازی های با سرعت سریع و بهینه سازی متناقض تصادفی به دست می آوریم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.