,

ترجمه فارسی مقاله RECE: کاهش تلفات آنتروپی متقاطع برای توصیه‌گرهای متوالی با کاتالوگ بزرگ

19,000 تومان200,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی RECE: Reduced Cross-Entropy Loss for Large-Catalogue Sequential Recommenders
عنوان مقاله به فارسی ترجمه فارسی مقاله RECE: کاهش تلفات آنتروپی متقاطع برای توصیه‌گرهای متوالی با کاتالوگ بزرگ
نویسندگان Danil Gusak, Gleb Mezentsev, Ivan Oseledets, Evgeny Frolov
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 5
دسته بندی موضوعات Information Retrieval,Machine Learning,بازیابی اطلاعات , یادگیری ماشین ,
توضیحات Submitted 14 August, 2024; v1 submitted 5 August, 2024; originally announced August 2024. , Comments: 5 pages, accepted for CIKM’24
توضیحات به فارسی ارسال شده در 14 اوت 2024 ؛V1 ارسال شده 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 5 صفحه ، برای Cikm’24 پذیرفته شده است

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 200,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Scalability is a major challenge in modern recommender systems. In sequential recommendations, full Cross-Entropy (CE) loss achieves state-of-the-art recommendation quality but consumes excessive GPU memory with large item catalogs, limiting its practicality. Using a GPU-efficient locality-sensitive hashing-like algorithm for approximating large tensor of logits, this paper introduces a novel RECE (REduced Cross-Entropy) loss. RECE significantly reduces memory consumption while allowing one to enjoy the state-of-the-art performance of full CE loss. Experimental results on various datasets show that RECE cuts training peak memory usage by up to 12 times compared to existing methods while retaining or exceeding performance metrics of CE loss. The approach also opens up new possibilities for large-scale applications in other domains.

چکیده به فارسی (ترجمه ماشینی)

مقیاس پذیری یک چالش اساسی در سیستم های پیشنهادی مدرن است.در توصیه های پی در پی ، از دست دادن کامل آنتروپی (CE) به کیفیت توصیه های پیشرفته ای می رسد اما حافظه بیش از حد GPU را با کاتالوگ های کالاهای بزرگ مصرف می کند و عملی آن را محدود می کند.این مقاله با استفاده از یک الگوریتم مانند هشویی حساس به محلی GPU برای تقریب تانسور بزرگ از ورود به سیستم ، این مقاله یک از دست دادن جدید (کاهش آنتروپی متقابل) را معرفی می کند.دریافت ، مصرف حافظه را به میزان قابل توجهی کاهش می دهد در حالی که به فرد اجازه می دهد از عملکرد پیشرفته از دست دادن کامل CE لذت ببرد.نتایج تجربی در مجموعه داده های مختلف نشان می دهد که در حالی که در حالی که حفظ یا بیش از معیارهای عملکرد از دست دادن CE است ، میزان استفاده از حافظه اوج آموزش را تا 12 برابر در مقایسه با روش های موجود دریافت می کند.این رویکرد همچنین امکانات جدیدی را برای برنامه های در مقیاس بزرگ در حوزه های دیگر باز می کند.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله RECE: کاهش تلفات آنتروپی متقاطع برای توصیه‌گرهای متوالی با کاتالوگ بزرگ”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا