| عنوان مقاله به انگلیسی | Learning Rate-Free Reinforcement Learning: A Case for Model Selection with Non-Stationary Objectives |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری تقویتی بدون نرخ یادگیری: موردی برای انتخاب مدل با اهداف غیر ایستا |
| نویسندگان | Aida Afshar, Aldo Pacchiano |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 12 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 7 August, 2024; originally announced August 2024. , Comments: RLC 2024 Workshop on Failure Modes of Sequential Decision-Making in Practice |
| توضیحات به فارسی | ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: کارگاه RLC 2024 در مورد حالت های شکست تصمیم گیری متوالی در عمل |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 480,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
The performance of reinforcement learning (RL) algorithms is sensitive to the choice of hyperparameters, with the learning rate being particularly influential. RL algorithms fail to reach convergence or demand an extensive number of samples when the learning rate is not optimally set. In this work, we show that model selection can help to improve the failure modes of RL that are due to suboptimal choices of learning rate. We present a model selection framework for Learning Rate-Free Reinforcement Learning that employs model selection methods to select the optimal learning rate on the fly. This approach of adaptive learning rate tuning neither depends on the underlying RL algorithm nor the optimizer and solely uses the reward feedback to select the learning rate; hence, the framework can input any RL algorithm and produce a learning rate-free version of it. We conduct experiments for policy optimization methods and evaluate various model selection strategies within our framework. Our results indicate that data-driven model selection algorithms are better alternatives to standard bandit algorithms when the optimal choice of hyperparameter is time-dependent and non-stationary.
چکیده به فارسی (ترجمه ماشینی)
عملکرد الگوریتم های یادگیری تقویت (RL) به انتخاب هایپرپارامترها حساس است ، با این که میزان یادگیری به ویژه تأثیرگذار است.الگوریتم های RL قادر به دستیابی به همگرایی نیستند یا تعداد گسترده ای از نمونه ها را تقاضا می کنند وقتی که نرخ یادگیری بهینه تنظیم نشده باشد.در این کار ، ما نشان می دهیم که انتخاب مدل می تواند به بهبود حالت های خرابی RL کمک کند که به دلیل انتخاب زیر حد متوسط نرخ یادگیری است.ما یک چارچوب انتخاب مدل برای یادگیری تقویت عاری از نرخ یادگیری ارائه می دهیم که از روش های انتخاب مدل برای انتخاب نرخ یادگیری بهینه در پرواز استفاده می کند.این رویکرد تنظیم نرخ یادگیری تطبیقی نه به الگوریتم RL اساسی و نه بهینه ساز بستگی ندارد و فقط از بازخورد پاداش برای انتخاب نرخ یادگیری استفاده می کند.از این رو ، چارچوب می تواند هر الگوریتم RL را وارد کرده و یک نسخه بدون نرخ یادگیری از آن تولید کند.ما آزمایشاتی را برای روشهای بهینه سازی سیاست انجام می دهیم و استراتژی های مختلف انتخاب مدل را در چارچوب خود ارزیابی می کنیم.نتایج ما نشان می دهد که الگوریتم های انتخاب مدل داده محور گزینه های بهتری برای الگوریتم های راهزن استاندارد هستند که انتخاب بهینه HyperParameter وابسته به زمان و غیر ثابت باشد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.