| عنوان مقاله به انگلیسی | Sparse Deep Learning Models with the $ell_1$ Regularization |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله مدلهای یادگیری عمیق پراکنده با منظمسازی $\ell_1$ |
| نویسندگان | Lixin Shen, Rui Wang, Yuesheng Xu, Mingsong Yan |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 29 |
| دسته بندی موضوعات | Machine Learning,Optimization and Control,Machine Learning,یادگیری ماشین , بهینه سازی و کنترل , یادگیری ماشین , |
| توضیحات | Submitted 5 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,160,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Sparse neural networks are highly desirable in deep learning in reducing its complexity. The goal of this paper is to study how choices of regularization parameters influence the sparsity level of learned neural networks. We first derive the $ell_1$-norm sparsity-promoting deep learning models including single and multiple regularization parameters models, from a statistical viewpoint. We then characterize the sparsity level of a regularized neural network in terms of the choice of the regularization parameters. Based on the characterizations, we develop iterative algorithms for selecting regularization parameters so that the weight parameters of the resulting deep neural network enjoy prescribed sparsity levels. Numerical experiments are presented to demonstrate the effectiveness of the proposed algorithms in choosing desirable regularization parameters and obtaining corresponding neural networks having both of predetermined sparsity levels and satisfactory approximation accuracy.
چکیده به فارسی (ترجمه ماشینی)
شبکه های عصبی پراکنده در یادگیری عمیق در کاهش پیچیدگی آن بسیار مطلوب هستند.هدف از این مقاله بررسی چگونگی تأثیر پارامترهای منظم بر میزان کمبود شبکه های عصبی آموخته شده است.ما ابتدا از یک دیدگاه آماری ، مدل های یادگیری عمیق $ el_1 $-norm-norm-prarmoting شامل مدل های پارامترهای تنظیم مجدد و چندگانه را استخراج می کنیم.سپس ما از نظر انتخاب پارامترهای منظم ، سطح کمبود یک شبکه عصبی منظم را توصیف می کنیم.بر اساس خصوصیات ، ما الگوریتم های تکراری را برای انتخاب پارامترهای منظم ایجاد می کنیم تا پارامترهای وزن شبکه عصبی عمیق حاصل از سطح پراکنده تجویز شده لذت ببرند.آزمایش های عددی برای نشان دادن اثربخشی الگوریتم های پیشنهادی در انتخاب پارامترهای تنظیم مطلوب و به دست آوردن شبکه های عصبی مربوطه با هر دو سطح از پیش تعیین شده از پیش تعیین شده و دقت تقریب رضایت بخش ارائه شده است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.