| عنوان مقاله به انگلیسی | Unveiling the Power of Sparse Neural Networks for Feature Selection |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله آشکار کردن قدرت شبکههای عصبی پراکنده برای انتخاب ویژگی |
| نویسندگان | Zahra Atashgahi, Tennison Liu, Mykola Pechenizkiy, Raymond Veldhuis, Decebal Constantin Mocanu, Mihaela van der Schaar |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 12 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 8 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 8 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 480,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Sparse Neural Networks (SNNs) have emerged as powerful tools for efficient feature selection. Leveraging the dynamic sparse training (DST) algorithms within SNNs has demonstrated promising feature selection capabilities while drastically reducing computational overheads. Despite these advancements, several critical aspects remain insufficiently explored for feature selection. Questions persist regarding the choice of the DST algorithm for network training, the choice of metric for ranking features/neurons, and the comparative performance of these methods across diverse datasets when compared to dense networks. This paper addresses these gaps by presenting a comprehensive systematic analysis of feature selection with sparse neural networks. Moreover, we introduce a novel metric considering sparse neural network characteristics, which is designed to quantify feature importance within the context of SNNs. Our findings show that feature selection with SNNs trained with DST algorithms can achieve, on average, more than $50%$ memory and $55%$ FLOPs reduction compared to the dense networks, while outperforming them in terms of the quality of the selected features. Our code and the supplementary material are available on GitHub (url{https://github.com/zahraatashgahi/Neuron-Attribution}).
چکیده به فارسی (ترجمه ماشینی)
شبکه های عصبی پراکنده (SNN) به عنوان ابزاری قدرتمند برای انتخاب ویژگی های کارآمد ظاهر شده اند.استفاده از الگوریتم های آموزش پراکنده پویا (DST) در SNNS ، قابلیت انتخاب ویژگی های امیدوارکننده را نشان داده است در حالی که به طرز چشمگیری سربارهای محاسباتی را کاهش می دهد.با وجود این پیشرفت ها ، چندین جنبه مهم برای انتخاب ویژگی ها به اندازه کافی مورد بررسی قرار نمی گیرد.سؤالاتی در مورد انتخاب الگوریتم DST برای آموزش شبکه ، انتخاب متریک برای رتبه بندی ویژگی ها/نورون ها و عملکرد مقایسه ای این روش ها در مجموعه داده های متنوع در مقایسه با شبکه های متراکم ادامه دارد.در این مقاله با ارائه یک تجزیه و تحلیل سیستماتیک جامع از انتخاب ویژگی با شبکه های عصبی پراکنده ، این شکاف ها را بررسی می کند.علاوه بر این ، ما با توجه به ویژگی های شبکه عصبی پراکنده ، یک متریک جدید را معرفی می کنیم ، که برای تعیین کمیت اهمیت ویژگی در متن SNN ها طراحی شده است.یافته های ما نشان می دهد که انتخاب ویژگی با SNN هایی که با الگوریتم های DST آموزش دیده اند ، می توانند به طور متوسط بیش از 50 ٪ $ حافظه و 55 $ $ کاهش فلاپ در مقایسه با شبکه های متراکم ، در حالی که از نظر کیفیت ویژگی های انتخاب شده از آنها استفاده می کنند.بشرکد و مواد تکمیلی ما در GitHub ( url {https://github.com/zahraatashgahi/neuron-attribution}) در دسترس است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.