| عنوان مقاله به انگلیسی | On the KL-Divergence-based Robust Satisficing Model | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله در مدل رضایت بخش قوی مبتنی بر واگرایی KL | ||||||||
| نویسندگان | Haojie Yan, Minglong Zhou, Jiayi Guo | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 33 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , | ||||||||
| توضیحات | Submitted 17 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارسال شده 17 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Empirical risk minimization, a cornerstone in machine learning, is often hindered by the Optimizer’s Curse stemming from discrepancies between the empirical and true data-generating distributions.To address this challenge, the robust satisficing framework has emerged recently to mitigate ambiguity in the true distribution. Distinguished by its interpretable hyperparameter and enhanced performance guarantees, this approach has attracted increasing attention from academia. However, its applicability in tackling general machine learning problems, notably deep neural networks, remains largely unexplored due to the computational challenges in solving this model efficiently across general loss functions. In this study, we delve into the Kullback Leibler divergence based robust satisficing model under a general loss function, presenting analytical interpretations, diverse performance guarantees, efficient and stable numerical methods, convergence analysis, and an extension tailored for hierarchical data structures. Through extensive numerical experiments across three distinct machine learning tasks, we demonstrate the superior performance of our model compared to state-of-the-art benchmarks.
چکیده به فارسی (ترجمه ماشینی)
به حداقل رساندن خطر تجربی ، یک سنگ بنای در یادگیری ماشین ، غالباً توسط نفرین بهینه ساز ناشی از اختلاف بین توزیع های تجربی و واقعی تولید شده است. برای پرداختن به این چالش ، چارچوب قوی تر و محکم برای کاهش ابهام در توزیع واقعی پدید آمده است.این رویکرد که با استفاده از هایپرپارامتر قابل تفسیر و تضمین های عملکردی آن متمایز است ، توجه روز افزون را به سمت آکادمی ها جلب کرده است.با این حال ، کاربرد آن در مقابله با مشکلات عمومی یادگیری ماشین ، به ویژه شبکه های عصبی عمیق ، به دلیل چالش های محاسباتی در حل این مدل به طور مؤثر در عملکردهای از دست دادن عمومی ، تا حد زیادی ناشناخته است.در این مطالعه ، ما به یک مدل Satisfication قوی مبتنی بر واگرایی Kullback Leibler تحت یک عملکرد از دست دادن کلی ، ارائه تفسیرهای تحلیلی ، ضمانت های عملکرد متنوع ، روش های عددی کارآمد و پایدار ، تجزیه و تحلیل همگرایی و یک برنامه افزودنی متناسب برای ساختارهای داده های سلسله مراتبی می پردازیم.از طریق آزمایش های عددی گسترده در سه کار یادگیری ماشین مجزا ، ما عملکرد برتر مدل خود را در مقایسه با معیارهای پیشرفته نشان می دهیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.