| عنوان مقاله به انگلیسی | Directional Smoothness and Gradient Methods: Convergence and Adaptivity | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله صافی جهت دار و روشهای شیب: همگرایی و سازگاری | ||||||||
| نویسندگان | Aaron Mishkin, Ahmed Khaled, Yuanhao Wang, Aaron Defazio, Robert M. Gower | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 24 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Optimization and Control,یادگیری ماشین , بهینه سازی و کنترل , | ||||||||
| توضیحات | Submitted 6 March, 2024; originally announced March 2024. , Comments: Twenty-four pages | ||||||||
| توضیحات به فارسی | ارسال 6 مارس 2024 ؛در ابتدا مارس 2024 اعلام شد ، نظرات: بیست و چهار صفحه | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
We develop new sub-optimality bounds for gradient descent (GD) that depend on the conditioning of the objective along the path of optimization, rather than on global, worst-case constants. Key to our proofs is directional smoothness, a measure of gradient variation that we use to develop upper-bounds on the objective. Minimizing these upper-bounds requires solving implicit equations to obtain a sequence of strongly adapted step-sizes; we show that these equations are straightforward to solve for convex quadratics and lead to new guarantees for two classical step-sizes. For general functions, we prove that the Polyak step-size and normalized GD obtain fast, path-dependent rates despite using no knowledge of the directional smoothness. Experiments on logistic regression show our convergence guarantees are tighter than the classical theory based on L-smoothness.
چکیده به فارسی (ترجمه ماشینی)
ما مرزهای زیر مطلوبی را برای نزول شیب (GD) ایجاد می کنیم که به تهویه هدف در مسیر بهینه سازی بستگی دارد ، نه به ثابت های جهانی و بدترین حالت.کلید اثبات ما ، صافی جهت دار است ، اندازه گیری تغییر شیب که ما برای توسعه مرزهای فوقانی در هدف استفاده می کنیم.به حداقل رساندن این محدوده های بالا نیاز به حل معادلات ضمنی برای به دست آوردن دنباله ای از اندازه های گام به گام به شدت سازگار دارد.ما نشان می دهیم که این معادلات ساده برای حل چهارگوشهای محدب هستند و منجر به ضمانت های جدید برای دو اندازه کلاسیک می شوند.برای کارکردهای کلی ، ما ثابت می کنیم که GD به صورت گام به گام Polyak و نرمال شده با وجود هیچ آگاهی از صافی جهت ، سرعت و وابسته به مسیر را بدست می آورد.آزمایشات مربوط به رگرسیون لجستیک نشان می دهد که ضمانت های همگرایی ما محکم تر از تئوری کلاسیک بر اساس Smoothness است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.