| عنوان مقاله به انگلیسی | Dataset Distillation for Offline Reinforcement Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله تقطیر مجموعه دادهها برای یادگیری تقویتی آفلاین |
| نویسندگان | Jonathan Light, Yuanzhe Liu, Ziniu Hu |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 13 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 31 July, 2024; v1 submitted 29 July, 2024; originally announced July 2024. , Comments: ICML 2024 DMLR Workshop |
| توضیحات به فارسی | ارسال 31 ژوئیه 2024 ؛V1 ارسال شده 29 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد ، نظرات: کارگاه ICML 2024 DMLR |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 520,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Offline reinforcement learning often requires a quality dataset that we can train a policy on. However, in many situations, it is not possible to get such a dataset, nor is it easy to train a policy to perform well in the actual environment given the offline data. We propose using data distillation to train and distill a better dataset which can then be used for training a better policy model. We show that our method is able to synthesize a dataset where a model trained on it achieves similar performance to a model trained on the full dataset or a model trained using percentile behavioral cloning. Our project site is available at $href{https://datasetdistillation4rl.github.io}{text{here}}$. We also provide our implementation at $href{https://github.com/ggflow123/DDRL}{text{this GitHub repository}}$.
چکیده به فارسی (ترجمه ماشینی)
یادگیری تقویت آفلاین اغلب به یک مجموعه داده با کیفیت نیاز دارد که ما می توانیم یک خط مشی را آموزش دهیم.با این حال ، در بسیاری از مواقع ، دستیابی به چنین مجموعه ای امکان پذیر نیست ، و همچنین آموزش یک سیاست برای عملکرد خوب در محیط واقعی با توجه به داده های آفلاین آسان نیست.ما پیشنهاد می کنیم با استفاده از تقطیر داده ها برای آموزش و تقطیر یک مجموعه داده بهتر که می تواند برای آموزش یک مدل خط مشی بهتر استفاده شود.ما نشان می دهیم که روش ما قادر به سنتز یک مجموعه داده است که در آن مدلی که روی آن آموزش دیده باشد ، عملکرد مشابهی را با یک مدل آموزش داده شده در مجموعه داده کامل یا مدلی آموزش داده شده با استفاده از کلونینگ رفتاری صدک می کند.سایت پروژه ما با $ href {https://datasetdistillation4rl.github.io} { text {here}} $ در دسترس است.ما همچنین اجرای خود را با $ href {https://github.com/ggflow123/ddrl} { text {این مخزن github}} $ ارائه می دهیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.