| عنوان مقاله به انگلیسی | A Margin-Maximizing Fine-Grained Ensemble Method | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یک روش ترکیبی ریز دانه به حداکثر رساندن حاشیه | ||||||||
| نویسندگان | Jinghui Yuan, Hao Chen, Renwei Luo, Feiping Nie | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 5 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , | ||||||||
| توضیحات | Submitted 19 September, 2024; originally announced September 2024. | ||||||||
| توضیحات به فارسی | ارسال شده در 19 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Ensemble learning has achieved remarkable success in machine learning, but its reliance on numerous base learners limits its application in resource-constrained environments. This paper introduces an innovative “Margin-Maximizing Fine-Grained Ensemble Method” that achieves performance surpassing large-scale ensembles by meticulously optimizing a small number of learners and enhancing generalization capability. We propose a novel learnable confidence matrix, quantifying each classifier’s confidence for each category, precisely capturing category-specific advantages of individual learners. Furthermore, we design a margin-based loss function, constructing a smooth and partially convex objective using the logsumexp technique. This approach improves optimization, eases convergence, and enables adaptive confidence allocation. Finally, we prove that the loss function is Lipschitz continuous, based on which we develop an efficient gradient optimization algorithm that simultaneously maximizes margins and dynamically adjusts learner weights. Extensive experiments demonstrate that our method outperforms traditional random forests using only one-tenth of the base learners and other state-of-the-art ensemble methods.
چکیده به فارسی (ترجمه ماشینی)
Learning Ensemble در یادگیری ماشین به موفقیت چشمگیری رسیده است ، اما اعتماد به نفس آن به بسیاری از زبان آموزان پایه ، کاربرد آن را در محیط های محدود شده از منابع محدود می کند.در این مقاله یک “روش گروهی ریز و درشت ریزه کاری حاشیه ای” نوآورانه ارائه شده است که با بهینه سازی دقیق تعداد کمی از زبان آموزان و تقویت قابلیت تعمیم ، عملکردی را که از مجموعه های در مقیاس بزرگ فراتر می رود ، به دست می آورد.ما یک ماتریس اعتماد به نفس یادگیری جدید را پیشنهاد می کنیم ، و اعتماد به نفس هر طبقه بندی را برای هر گروه تعیین می کنیم ، و دقیقاً مزایای خاص دسته از زبان آموزان را ضبط می کنیم.علاوه بر این ، ما یک عملکرد از دست دادن مبتنی بر حاشیه را طراحی می کنیم و با استفاده از تکنیک LogSumexp یک هدف صاف و جزئی محدب را می سازیم.این رویکرد بهینه سازی را بهبود می بخشد ، همگرایی را کاهش می دهد و تخصیص اعتماد به نفس سازگار را امکان پذیر می کند.سرانجام ، ما ثابت می کنیم که عملکرد از دست دادن Lipschitz مداوم است ، بر اساس آن ما یک الگوریتم بهینه سازی شیب کارآمد ایجاد می کنیم که همزمان حاشیه ها را به حداکثر می رساند و به طور پویا وزن یادگیرنده را تنظیم می کند.آزمایش های گسترده نشان می دهد که روش ما از جنگل های تصادفی سنتی با استفاده از تنها یک دهم از زبان آموزان پایه و سایر روشهای پیشرفته گروهی بهتر عمل می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.