| عنوان مقاله به انگلیسی | Reciprocal Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری متقابل |
| نویسندگان | Julian Rodemann, Christoph Jansen, Georg Schollmeyer |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 42 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Machine Learning,یادگیری ماشین , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 12 August, 2024; originally announced August 2024. , Comments: 41 pages, 3 figures , MSC Class: 68T37; 68T05; 68W25 |
| توضیحات به فارسی | ارائه شده 12 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 41 صفحه ، 3 شکل ، کلاس MSC: 68T37 ؛68T05 ؛68W25 |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,680,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
We demonstrate that a wide array of machine learning algorithms are specific instances of one single paradigm: reciprocal learning. These instances range from active learning over multi-armed bandits to self-training. We show that all these algorithms do not only learn parameters from data but also vice versa: They iteratively alter training data in a way that depends on the current model fit. We introduce reciprocal learning as a generalization of these algorithms using the language of decision theory. This allows us to study under what conditions they converge. The key is to guarantee that reciprocal learning contracts such that the Banach fixed-point theorem applies. In this way, we find that reciprocal learning algorithms converge at linear rates to an approximately optimal model under relatively mild assumptions on the loss function, if their predictions are probabilistic and the sample adaption is both non-greedy and either randomized or regularized. We interpret these findings and provide corollaries that relate them to specific active learning, self-training, and bandit algorithms.
چکیده به فارسی (ترجمه ماشینی)
ما نشان می دهیم که طیف گسترده ای از الگوریتم های یادگیری ماشین نمونه های خاصی از یک الگوی واحد هستند: یادگیری متقابل.این موارد از یادگیری فعال بر روی راهزنان چند مسلح تا خودآموزی متغیر است.ما نشان می دهیم که همه این الگوریتم ها نه تنها پارامترهای داده را می آموزند بلکه برعکس نیز می آموزند: آنها به طور تکراری داده های آموزش را به روشی تغییر می دهند که به تناسب مدل فعلی بستگی دارد.ما یادگیری متقابل را به عنوان تعمیم این الگوریتم ها با استفاده از زبان تئوری تصمیم گیری معرفی می کنیم.این به ما امکان می دهد تحت چه شرایطی همگرا شوند.نکته مهم این است که تضمین شده است که قراردادهای یادگیری متقابل به گونه ای است که قضیه ثابت Banach اعمال می شود.به این ترتیب ، ما می دانیم که الگوریتم های یادگیری متقابل با نرخ های خطی به یک مدل تقریباً بهینه تحت فرضیات نسبتاً خفیف در مورد عملکرد از دست دادن همگرا می شوند ، اگر پیش بینی های آنها احتمالی باشد و سازگار نمونه هم غیر سبز است و هم تصادفی یا منظم یا منظم.ما این یافته ها را تفسیر می کنیم و نتیجه گیری هایی را ارائه می دهیم که آنها را با الگوریتم های خاص یادگیری فعال ، خودآموزی و راهزن مرتبط می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.