ترجمه فارسی مقاله بهینه‌سازی سریع بدون محدودیت از طریق روش‌های نمونه‌گیری میانگین‌گیری هسی و شیب تطبیقی

2,480,000 تومان

عنوان مقاله به انگلیسی Fast Unconstrained Optimization via Hessian Averaging and Adaptive Gradient Sampling Methods
عنوان مقاله به فارسی ترجمه فارسی مقاله بهینه‌سازی سریع بدون محدودیت از طریق روش‌های نمونه‌گیری میانگین‌گیری هسی و شیب تطبیقی
نویسندگان Thomas O’Leary-Roseberry, Raghu Bollapragada
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 62
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Optimization and Control,Numerical Analysis,Machine Learning,بهینه سازی و کنترل , تجزیه و تحلیل عددی , یادگیری ماشین ,
توضیحات Submitted 13 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 13 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

We consider minimizing finite-sum and expectation objective functions via Hessian-averaging based subsampled Newton methods. These methods allow for gradient inexactness and have fixed per-iteration Hessian approximation costs. The recent work (Na et al. 2023) demonstrated that Hessian averaging can be utilized to achieve fast $\mathcal{O}\left(\sqrt{\tfrac{\log k}{k}}\right)$ local superlinear convergence for strongly convex functions in high probability, while maintaining fixed per-iteration Hessian costs. These methods, however, require gradient exactness and strong convexity, which poses challenges for their practical implementation. To address this concern we consider Hessian-averaged methods that allow gradient inexactness via norm condition based adaptive-sampling strategies. For the finite-sum problem we utilize deterministic sampling techniques which lead to global linear and sublinear convergence rates for strongly convex and nonconvex functions respectively. In this setting we are able to derive an improved deterministic local superlinear convergence rate of $\mathcal{O}\left(\tfrac{1}{k}\right)$. For the %expected risk expectation problem we utilize stochastic sampling techniques, and derive global linear and sublinear rates for strongly convex and nonconvex functions, as well as a $\mathcal{O}\left(\tfrac{1}{\sqrt{k}}\right)$ local superlinear convergence rate, all in expectation. We present novel analysis techniques that differ from the previous probabilistic results. Additionally, we propose scalable and efficient variations of these methods via diagonal approximations and derive the novel diagonally-averaged Newton (Dan) method for large-scale problems. Our numerical results demonstrate that the Hessian averaging not only helps with convergence, but can lead to state-of-the-art performance on difficult problems such as CIFAR100 classification with ResNets.

چکیده به فارسی (ترجمه ماشینی)

ما به حداقل رساندن توابع هدف محدود و انتظار از طریق روشهای زیرزمینی مبتنی بر Hessian با میانگین جدید نیوتن در نظر می گیریم.این روشها امکان عدم موفقیت شیب را فراهم می کند و هزینه های تقریب هسیایی را در هر بادی ثابت می کند.کار اخیر (Na et al. 2023) نشان داد که می توان از میانگین هسیان برای دستیابی به سریع $ \ Mathcal {o} \ سمت چپ استفاده کرد (\ sqrt {\ tfrac {\ log k} {k}} \ right) $ converence superlinear محلی محلیبرای عملکردهای قوی محدب در احتمال زیاد ، ضمن حفظ هزینه های هسیایی در هر بادی ثابت.با این حال ، این روش ها به دقت شیب و محدب قوی نیاز دارند ، که برای اجرای عملی آنها چالش هایی را ایجاد می کند.برای پرداختن به این نگرانی ، ما روشهای متوسط ​​هسیایی را در نظر می گیریم که امکان عدم موفقیت شیب را از طریق استراتژی های نمونه برداری تطبیقی ​​مبتنی بر شرایط هنجار فراهم می کند.برای مسئله محدود محدود ، ما از تکنیک های نمونه گیری قطعی استفاده می کنیم که به ترتیب منجر به نرخ همگرایی خطی و زیر خطی جهانی برای عملکردهای به شدت محدب و غیر کنفکس می شود.در این تنظیم ما می توانیم یک نرخ همگرایی فوق العاده محلی تعیین شده از $ \ mathcal {o} \ سمت چپ (\ tfrac {1} {k} \ راست) را بدست آوریم.برای مشکل انتظار انتظار در مورد ریسک ما از تکنیک های نمونه گیری تصادفی استفاده می کنیم و نرخ های خطی و زیر خطی جهانی را برای توابع به شدت محدب و غیر کنفکس به دست می آوریم ، و همچنین یک $ \ mathcal {o} \ سمت چپ (\ tfrac {1} {\ sqrt {k}} \ RIGHT) $ نرخ همگرایی فوق العاده محلی محلی ، همه در انتظار.ما تکنیک های تجزیه و تحلیل جدید را ارائه می دهیم که با نتایج احتمالی قبلی متفاوت است.علاوه بر این ، ما تغییرات مقیاس پذیر و کارآمد این روش ها را از طریق تقریبی مورب پیشنهاد می کنیم و روش جدید نیوتن (DAN) به طور متوسط ​​مورب را برای مشکلات در مقیاس بزرگ استخراج می کنیم.نتایج عددی ما نشان می دهد که میانگین هسی نه تنها به همگرایی کمک می کند ، بلکه می تواند منجر به عملکرد پیشرفته در مشکلات دشوار مانند طبقه بندی CIFAR100 با Resnets شود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله بهینه‌سازی سریع بدون محدودیت از طریق روش‌های نمونه‌گیری میانگین‌گیری هسی و شیب تطبیقی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا