| عنوان مقاله به انگلیسی | Hybrid Coordinate Descent for Efficient Neural Network Learning Using Line Search and Gradient Descent |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله نزول مختصات ترکیبی برای یادگیری کارآمد شبکه عصبی با استفاده از جستجوی خط و نزول گرادیان |
| نویسندگان | Yen-Che Hsiao, Abhishek Dutta |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 4 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 2 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 2 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 160,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
This paper presents a novel coordinate descent algorithm leveraging a combination of one-directional line search and gradient information for parameter updates for a squared error loss function. Each parameter undergoes updates determined by either the line search or gradient method, contingent upon whether the modulus of the gradient of the loss with respect to that parameter surpasses a predefined threshold. Notably, a larger threshold value enhances algorithmic efficiency. Despite the potentially slower nature of the line search method relative to gradient descent, its parallelizability facilitates computational time reduction. Experimental validation conducted on a 2-layer Rectified Linear Unit network with synthetic data elucidates the impact of hyperparameters on convergence rates and computational efficiency.
چکیده به فارسی (ترجمه ماشینی)
در این مقاله یک الگوریتم نزول هماهنگی جدید که از ترکیبی از جستجوی خط یک جهته و اطلاعات شیب برای به روزرسانی پارامترها برای یک عملکرد از دست دادن خطای مربع استفاده می کند ، ارائه می دهد.هر پارامتر به روزرسانی های تعیین شده با استفاده از روش جستجوی خط یا روش شیب ، مشروط بر اینکه آیا مدول شیب ضرر با توجه به آن پارامتر از آستانه از پیش تعریف شده پیشی می گیرد.نکته قابل توجه ، یک مقدار آستانه بزرگتر باعث افزایش بازده الگوریتمی می شود.با وجود ماهیت بالقوه کندتر روش جستجوی خط نسبت به نزول شیب ، قابلیت موازی آن کاهش زمان محاسباتی را تسهیل می کند.اعتبار سنجی تجربی که بر روی یک شبکه واحد خطی اصلاح شده 2 لایه با داده های مصنوعی انجام می شود ، تأثیر هایپرپارامترها را بر میزان همگرایی و راندمان محاسباتی روشن می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.