| عنوان مقاله به انگلیسی | Personalized Negative Reservoir for Incremental Learning in Recommender Systems | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله مخزن منفی شخصی برای یادگیری افزایشی در سیستم های پیشنهادی | ||||||||
| نویسندگان | Antonios Valkanas, Yuening Wang, Yingxue Zhang, Mark Coates | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 13 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Information Retrieval,Artificial Intelligence,بازیابی اطلاعات , هوش مصنوعی , | ||||||||
| توضیحات | Submitted 6 March, 2024; originally announced March 2024. | ||||||||
| توضیحات به فارسی | ارسال 6 مارس 2024 ؛در ابتدا مارس 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Recommender systems have become an integral part of online platforms. Every day the volume of training data is expanding and the number of user interactions is constantly increasing. The exploration of larger and more expressive models has become a necessary pursuit to improve user experience. However, this progression carries with it an increased computational burden. In commercial settings, once a recommendation system model has been trained and deployed it typically needs to be updated frequently as new client data arrive. Cumulatively, the mounting volume of data is guaranteed to eventually make full batch retraining of the model from scratch computationally infeasible. Naively fine-tuning solely on the new data runs into the well-documented problem of catastrophic forgetting. Despite the fact that negative sampling is a crucial part of training with implicit feedback, no specialized technique exists that is tailored to the incremental learning framework. In this work, we take the first step to propose, a personalized negative reservoir strategy which is used to obtain negative samples for the standard triplet loss. This technique balances alleviation of forgetting with plasticity by encouraging the model to remember stable user preferences and selectively forget when user interests change. We derive the mathematical formulation of a negative sampler to populate and update the reservoir. We integrate our design in three SOTA and commonly used incremental recommendation models. We show that these concrete realizations of our negative reservoir framework achieve state-of-the-art results in standard benchmarks, on multiple standard top-k evaluation metrics.
چکیده به فارسی (ترجمه ماشینی)
سیستم های پیشنهادی به بخشی جدایی ناپذیر از سیستم عامل های آنلاین تبدیل شده اند.هر روز حجم داده های آموزش در حال گسترش است و تعداد تعامل کاربر به طور مداوم در حال افزایش است.اکتشاف مدلهای بزرگتر و بیانگر تر به یک پیگیری ضروری برای بهبود تجربه کاربر تبدیل شده است.با این حال ، این پیشرفت بار محاسباتی را افزایش می دهد.در تنظیمات تجاری ، پس از آموزش و استقرار یک مدل سیستم توصیه ، معمولاً با ورود داده های جدید مشتری ، به طور مکرر به روز می شود.به طور تجمعی ، حجم نصب داده ها تضمین می شود که در نهایت بازآموزی کامل مدل از مدل از ابتدا محاسباتی غیرقابل تحمل باشد.تنظیم ساده لوحانه صرفاً بر روی داده های جدید به مشکل خوب فراموش شده از فراموشی فاجعه بار تبدیل می شود.با وجود این واقعیت که نمونه گیری منفی بخش مهمی از آموزش با بازخورد ضمنی است ، هیچ تکنیک تخصصی وجود ندارد که متناسب با چارچوب یادگیری افزایشی باشد.در این کار ، ما اولین قدم را برای پیشنهاد ، یک استراتژی مخزن منفی شخصی که برای به دست آوردن نمونه های منفی برای از دست دادن سه گانه استاندارد استفاده می شود ، انجام می دهیم.این تکنیک با ترغیب مدل برای به یاد آوردن ترجیحات پایدار کاربر ، کاهش فراموشی با انعطاف پذیری را متعادل می کند و هنگام تغییر علاقه های کاربر به طور انتخابی فراموش می شود.ما فرمولاسیون ریاضی یک نمونه منفی را برای جمع آوری و به روزرسانی مخزن استخراج می کنیم.ما طرح خود را در سه مدل SOTA و معمولاً استفاده می کنیم.ما نشان می دهیم که این تحقق بتن از چارچوب مخزن منفی ما به نتایج پیشرفته در معیارهای استاندارد ، بر روی معیارهای ارزیابی استاندارد بالا K می رسد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.