| عنوان مقاله به انگلیسی | Tractable and Provably Efficient Distributional Reinforcement Learning with General Value Function Approximation |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری تقویتی توزیعیِ قابل کنترل و با کارایی اثباتپذیر با تقریب تابع مقدار عمومی |
| نویسندگان | Taehyun Cho, Seungyub Han, Kyungjae Lee, Seokhun Ju, Dohyeong Kim, Jungwoo Lee |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 26 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Machine Learning,یادگیری ماشین , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 30 July, 2024; originally announced July 2024. |
| توضیحات به فارسی | ارسال شده 30 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 1,040,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Distributional reinforcement learning improves performance by effectively capturing environmental stochasticity, but a comprehensive theoretical understanding of its effectiveness remains elusive. In this paper, we present a regret analysis for distributional reinforcement learning with general value function approximation in a finite episodic Markov decision process setting. We first introduce a key notion of Bellman unbiasedness for a tractable and exactly learnable update via statistical functional dynamic programming. Our theoretical results show that approximating the infinite-dimensional return distribution with a finite number of moment functionals is the only method to learn the statistical information unbiasedly, including nonlinear statistical functionals. Second, we propose a provably efficient algorithm, $texttt{SF-LSVI}$, achieving a regret bound of $tilde{O}(d_E H^{frac{3}{2}}sqrt{K})$ where $H$ is the horizon, $K$ is the number of episodes, and $d_E$ is the eluder dimension of a function class.
چکیده به فارسی (ترجمه ماشینی)
یادگیری تقویت توزیع با گرفتن موثر تصادفی بودن محیطی ، عملکرد را بهبود می بخشد ، اما درک جامع نظری از اثربخشی آن گریزان است.در این مقاله ، ما یک تجزیه و تحلیل پشیمانی برای یادگیری تقویت توزیع با تقریب عملکرد ارزش کلی در یک تنظیم فرایند تصمیم گیری اپیزودیک محدود ارائه می دهیم.ما ابتدا یک مفهوم کلیدی از بی طرفانه بلمن را برای یک به روزرسانی قابل تراکت و دقیقاً قابل یادگیری از طریق برنامه نویسی پویا عملکردی آماری معرفی می کنیم.نتایج نظری ما نشان می دهد که تقریب توزیع بازده بعدی نامحدود با تعداد محدودی از عملکردهای لحظه ای تنها روشی برای یادگیری اطلاعات آماری بی طرفانه ، از جمله کارکردهای آماری غیرخطی است.دوم ، ما یک الگوریتم مؤثر و کارآمد را پیشنهاد می کنیم ، $ texttt {sf-lsvi} $ ، دستیابی به پشیمانی از $ tilde {o} (d_e h^{ frac {3} {2}}} sqrt {k})$ که $ h $ افق است ، $ k $ تعداد قسمت ها است و $ d_e $ بعد Eluder یک کلاس عملکرد است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.