| عنوان مقاله به انگلیسی | Decentralized Smoothing ADMM for Quantile Regression with Non-Convex Sparse Penalties |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله ADMM هموارسازی غیرمتمرکز برای رگرسیون چندک با جریمههای پراکنده غیرمحدب |
| نویسندگان | Reza Mirzaeifard, Diyako Ghaderyan, Stefan Werner |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 5 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 8 August, 2024; v1 submitted 2 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 8 اوت 2024 ؛V1 ارسال شده در 2 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 200,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
In the rapidly evolving internet-of-things (IoT) ecosystem, effective data analysis techniques are crucial for handling distributed data generated by sensors. Addressing the limitations of existing methods, such as the sub-gradient approach, which fails to distinguish between active and non-active coefficients effectively, this paper introduces the decentralized smoothing alternating direction method of multipliers (DSAD) for penalized quantile regression. Our method leverages non-convex sparse penalties like the minimax concave penalty (MCP) and smoothly clipped absolute deviation (SCAD), improving the identification and retention of significant predictors. DSAD incorporates a total variation norm within a smoothing ADMM framework, achieving consensus among distributed nodes and ensuring uniform model performance across disparate data sources. This approach overcomes traditional convergence challenges associated with non-convex penalties in decentralized settings. We present theoretical proofs and extensive simulation results to validate the effectiveness of the DSAD, demonstrating its superiority in achieving reliable convergence and enhancing estimation accuracy compared with prior methods.
چکیده به فارسی (ترجمه ماشینی)
در اکوسیستم به سرعت در حال تحول اینترنت (IoT) ، تکنیک های مؤثر تجزیه و تحلیل داده ها برای دستیابی به داده های توزیع شده تولید شده توسط سنسورها بسیار مهم هستند.این مقاله با پرداختن به محدودیت های روشهای موجود ، مانند رویکرد زیر شیب ، که نمی تواند بین ضرایب فعال و غیر فعال به طور مؤثر تمایز قائل شود ، این مقاله روش جهت گیری متناوب صاف کننده غیر متمرکز (DSAD) را برای رگرسیون مجازات مجازات معرفی می کند.روش ما مجازاتهای پراکنده غیر متمایز مانند مجازات مقعر Minimax (MCP) و انحراف مطلق (SCAD) را به آرامی قطع می کند و باعث بهبود شناسایی و حفظ پیش بینی کننده های قابل توجه می شود.DSAD یک هنجار تنوع کلی را در یک چارچوب ADMM هموار کننده ، دستیابی به اجماع در بین گره های توزیع شده و اطمینان از عملکرد مدل یکنواخت در منابع داده های متفاوت قرار می دهد.این رویکرد بر چالش های همگرایی سنتی مرتبط با مجازات های غیر متمایز در تنظیمات غیر متمرکز غلبه می کند.ما اثبات نظری و نتایج شبیه سازی گسترده را برای اعتبارسنجی اثربخشی DSAD ارائه می دهیم ، و برتری آن را در دستیابی به همگرایی قابل اعتماد و افزایش دقت تخمین در مقایسه با روش های قبلی نشان می دهیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.