| عنوان مقاله به انگلیسی | Characterizing Dynamical Stability of Stochastic Gradient Descent in Overparameterized Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله توصیف پایداری دینامیکی نزول گرادیان تصادفی در یادگیری بیش پارامتری |
| نویسندگان | Dennis Chemnitz, Maximilian Engel |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 43 |
| دسته بندی موضوعات | Machine Learning,Dynamical Systems,Probability,یادگیری ماشین , سیستم های دینامیکی , احتمال , |
| توضیحات | Submitted 18 September, 2024; v1 submitted 29 July, 2024; originally announced July 2024. |
| توضیحات به فارسی | ارائه شده در 18 سپتامبر 2024 ؛V1 ارسال شده 29 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 1,720,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
For overparameterized optimization tasks, such as the ones found in modern machine learning, global minima are generally not unique. In order to understand generalization in these settings, it is vital to study to which minimum an optimization algorithm converges. The possibility of having minima that are unstable under the dynamics imposed by the optimization algorithm limits the potential minima that the algorithm can find. In this paper, we characterize the global minima that are dynamically stable/unstable for both deterministic and stochastic gradient descent (SGD). In particular, we introduce a characteristic Lyapunov exponent which depends on the local dynamics around a global minimum and rigorously prove that the sign of this Lyapunov exponent determines whether SGD can accumulate at the respective global minimum.
چکیده به فارسی (ترجمه ماشینی)
برای کارهای بهینه سازی بیش از حد ، مانند مواردی که در یادگیری ماشین مدرن یافت می شود ، مینیما جهانی به طور کلی منحصر به فرد نیست.به منظور درک تعمیم در این تنظیمات ، مطالعه ای که حداقل یک الگوریتم بهینه سازی همگرا شود ، بسیار مهم است.امکان داشتن حداقل که تحت پویایی تحمیل شده توسط الگوریتم بهینه سازی ناپایدار است ، حداقل بالقوه ای را که الگوریتم می تواند پیدا کند ، محدود می کند.در این مقاله ، ما حداقل جهانی را که از نظر پویا پایدار/ناپایدار برای هر دو شیب تعیین کننده و تصادفی (SGD) است ، توصیف می کنیم.به طور خاص ، ما یک نماینده مشخص لیاپونوف را معرفی می کنیم که به پویایی محلی در اطراف یک حداقل جهانی بستگی دارد و به طور جدی ثابت می کند که نشانه این نماینده لیاپونوف تعیین می کند که آیا SGD می تواند در حداقل جهانی مربوطه جمع شود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.