| عنوان مقاله به انگلیسی | Convergence Analysis of Natural Gradient Descent for Over-parameterized Physics-Informed Neural Networks |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله تحلیل همگرایی نزول گرادیان طبیعی برای شبکههای عصبی بیش پارامتری مبتنی بر فیزیک |
| نویسندگان | Xianliang Xu, Ting Du, Wang Kong, Ye Li, Zhongyi Huang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 43 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 6 August, 2024; v1 submitted 1 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارائه شده در 6 اوت 2024 ؛V1 ارسال شده در 1 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 1,720,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
First-order methods, such as gradient descent (GD) and stochastic gradient descent (SGD), have been proven effective in training neural networks. In the context of over-parameterization, there is a line of work demonstrating that randomly initialized (stochastic) gradient descent converges to a globally optimal solution at a linear convergence rate for the quadratic loss function. However, the learning rate of GD for training two-layer neural networks exhibits poor dependence on the sample size and the Gram matrix, leading to a slow training process. In this paper, we show that for the $L^2$ regression problems, the learning rate can be improved from $mathcal{O}(λ_0/n^2)$ to $mathcal{O}(1/|bm{H}^{infty}|_2)$, which implies that GD actually enjoys a faster convergence rate. Furthermore, we generalize the method to GD in training two-layer Physics-Informed Neural Networks (PINNs), showing a similar improvement for the learning rate. Although the improved learning rate has a mild dependence on the Gram matrix, we still need to set it small enough in practice due to the unknown eigenvalues of the Gram matrix. More importantly, the convergence rate is tied to the least eigenvalue of the Gram matrix, which can lead to slow convergence. In this work, we provide the convergence analysis of natural gradient descent (NGD) in training two-layer PINNs, demonstrating that the learning rate can be $mathcal{O}(1)$, and at this rate, the convergence rate is independent of the Gram matrix.
چکیده به فارسی (ترجمه ماشینی)
روشهای مرتبه اول ، مانند نزول شیب (GD) و نزول شیب تصادفی (SGD) ، در آموزش شبکه های عصبی مؤثر بوده اند.در زمینه پارامتری بیش از حد ، یک خط کار وجود دارد که نشان می دهد نزول شیب به طور تصادفی (تصادفی) به یک محلول بهینه در سطح جهانی با یک میزان همگرایی خطی برای عملکرد از دست دادن درجه دوم همگرا می شود.با این حال ، میزان یادگیری GD برای آموزش شبکه های عصبی دو لایه وابستگی ضعیفی به اندازه نمونه و ماتریس گرم نشان می دهد و منجر به یک روند آموزش آهسته می شود.در این مقاله ، ما نشان می دهیم که برای مشکلات رگرسیون $ L^2 $ ، می توان نرخ یادگیری را از $ Mathcal {O} بهبود بخشید (λ_0/n^2) $ to $ Mathcal {o} (1/ | bm {h}^{ infty} | _2) $ ، که دلالت بر این دارد که GD در واقع از نرخ همگرایی سریعتر برخوردار است.علاوه بر این ، ما روش را به GD در آموزش شبکه های عصبی دو لایه فیزیک (PINN) تعمیم می دهیم ، و پیشرفت مشابهی را برای میزان یادگیری نشان می دهیم.اگرچه میزان یادگیری بهبود یافته وابستگی خفیف به ماتریس گرم دارد ، اما ما به دلیل مقادیر ویژه ناشناخته ماتریس گرم ، هنوز باید آن را به اندازه کافی کوچک تنظیم کنیم.مهمتر از همه ، میزان همگرایی به کمترین میزان ویژه ماتریس گرم گره خورده است ، که می تواند منجر به همگرایی کند شود.در این کار ، ما تجزیه و تحلیل همگرایی نزول شیب طبیعی (NGD) را در آموزش پین های دو لایه ارائه می دهیم ، نشان می دهد که نرخ یادگیری می تواند Mathcal {O} (1) $ باشد ، و با این سرعت نرخ همگرایی استمستقل از ماتریس گرم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.