ترجمه فارسی مقاله شخصی سازی یادگیری تقویتی از بازخورد انسانی با یادگیری ترجیحی متغیر

620,000 تومان

عنوان مقاله به انگلیسی Personalizing Reinforcement Learning from Human Feedback with Variational Preference Learning
عنوان مقاله به فارسی ترجمه فارسی مقاله شخصی سازی یادگیری تقویتی از بازخورد انسانی با یادگیری ترجیحی متغیر
نویسندگان Sriyash Poddar, Yanming Wan, Hamish Ivison, Abhishek Gupta, Natasha Jaques
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 31
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,Artificial Intelligence,Computation and Language,Robotics,یادگیری ماشین , هوش مصنوعی , محاسبات و زبان , روباتیک ,
توضیحات Submitted 19 August, 2024; originally announced August 2024. , Comments: weirdlabuw.github.io/vpl
توضیحات به فارسی ارسال شده در 19 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: wreadlabuw.github.io/vpl
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Reinforcement Learning from Human Feedback (RLHF) is a powerful paradigm for aligning foundation models to human values and preferences. However, current RLHF techniques cannot account for the naturally occurring differences in individual human preferences across a diverse population. When these differences arise, traditional RLHF frameworks simply average over them, leading to inaccurate rewards and poor performance for individual subgroups. To address the need for pluralistic alignment, we develop a class of multimodal RLHF methods. Our proposed techniques are based on a latent variable formulation – inferring a novel user-specific latent and learning reward models and policies conditioned on this latent without additional user-specific data. While conceptually simple, we show that in practice, this reward modeling requires careful algorithmic considerations around model architecture and reward scaling. To empirically validate our proposed technique, we first show that it can provide a way to combat underspecification in simulated control problems, inferring and optimizing user-specific reward functions. Next, we conduct experiments on pluralistic language datasets representing diverse user preferences and demonstrate improved reward function accuracy. We additionally show the benefits of this probabilistic framework in terms of measuring uncertainty, and actively learning user preferences. This work enables learning from diverse populations of users with divergent preferences, an important challenge that naturally occurs in problems from robot learning to foundation model alignment.

چکیده به فارسی (ترجمه ماشینی)

یادگیری تقویت از بازخورد انسانی (RLHF) یک الگوی قدرتمند برای تراز کردن مدل های بنیاد به ارزش ها و ترجیحات انسانی است.با این حال ، تکنیک های فعلی RLHF نمی توانند تفاوتهای طبیعی در ترجیحات فردی انسان در یک جمعیت متنوع را به خود اختصاص دهند.هنگامی که این اختلافات بوجود می آیند ، چارچوب های سنتی RLHF به سادگی بر آنها متوسط ​​هستند و منجر به پاداش نادرست و عملکرد ضعیف برای زیر گروه های فردی می شوند.برای رفع نیاز به تراز کثرت گرایانه ، ما یک کلاس از روش های RLHF چندمودال را توسعه می دهیم.تکنیک های پیشنهادی ما مبتنی بر یک فرمول متغیر نهفته است-استنباط یک مدل ها و خط مشی های پاداش یادگیری جدید و یادگیری جدید ، بدون داده های خاص کاربر.در حالی که از نظر مفهومی ساده است ، ما نشان می دهیم که در عمل ، این مدل سازی پاداش نیاز به ملاحظات الگوریتمی دقیق پیرامون معماری مدل و مقیاس گذاری پاداش دارد.برای اعتبار سنجی تکنیک پیشنهادی ما ، ابتدا نشان می دهیم که می تواند راهی برای مقابله با زیربنایی در مشکلات کنترل شبیه سازی شده ، استنباط و بهینه سازی توابع پاداش خاص کاربر فراهم کند.در مرحله بعد ، ما آزمایشاتی را در مورد مجموعه داده های زبان کثرت گرا به نمایندگی از ترجیحات متنوع کاربر انجام می دهیم و دقت عملکرد پاداش را نشان می دهیم.علاوه بر این ، ما مزایای این چارچوب احتمالی را از نظر اندازه گیری عدم اطمینان و یادگیری فعال ترجیحات کاربر نشان می دهیم.این کار امکان یادگیری از جمعیت متنوع کاربران با ترجیحات واگرا را فراهم می کند ، یک چالش مهم که به طور طبیعی در مشکلات موجود در یادگیری ربات گرفته تا تراز مدل بنیاد رخ می دهد.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله شخصی سازی یادگیری تقویتی از بازخورد انسانی با یادگیری ترجیحی متغیر”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا