,

ترجمه فارسی مقاله گرادیان پروگزیمال هموارسازی فدرال برای رگرسیون چندکی با جریمه‌های غیر محدب

19,000 تومان480,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Federated Smoothing Proximal Gradient for Quantile Regression with Non-Convex Penalties
عنوان مقاله به فارسی ترجمه فارسی مقاله گرادیان پروگزیمال هموارسازی فدرال برای رگرسیون چندکی با جریمه‌های غیر محدب
نویسندگان Reza Mirzaeifard, Diyako Ghaderyan, Stefan Werner
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 12
دسته بندی موضوعات Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی ,
توضیحات Submitted 13 August, 2024; v1 submitted 10 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 13 اوت 2024 ؛V1 ارسال شده 10 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 480,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Distributed sensors in the internet-of-things (IoT) generate vast amounts of sparse data. Analyzing this high-dimensional data and identifying relevant predictors pose substantial challenges, especially when data is preferred to remain on the device where it was collected for reasons such as data integrity, communication bandwidth, and privacy. This paper introduces a federated quantile regression algorithm to address these challenges. Quantile regression provides a more comprehensive view of the relationship between variables than mean regression models. However, traditional approaches face difficulties when dealing with nonconvex sparse penalties and the inherent non-smoothness of the loss function. For this purpose, we propose a federated smoothing proximal gradient (FSPG) algorithm that integrates a smoothing mechanism with the proximal gradient framework, thereby enhancing both precision and computational speed. This integration adeptly handles optimization over a network of devices, each holding local data samples, making it particularly effective in federated learning scenarios. The FSPG algorithm ensures steady progress and reliable convergence in each iteration by maintaining or reducing the value of the objective function. By leveraging nonconvex penalties, such as the minimax concave penalty (MCP) and smoothly clipped absolute deviation (SCAD), the proposed method can identify and preserve key predictors within sparse models. Comprehensive simulations validate the robust theoretical foundations of the proposed algorithm and demonstrate improved estimation precision and reliable convergence.

چکیده به فارسی (ترجمه ماشینی)

سنسورهای توزیع شده در اینترنت از این (IoT) مقادیر زیادی از داده های پراکنده تولید می کنند.تجزیه و تحلیل این داده های با بعدی بالا و شناسایی پیش بینی کننده های مربوطه چالش های اساسی را ایجاد می کند ، به ویژه هنگامی که داده ها ترجیح داده می شوند در دستگاهی که به دلایلی مانند یکپارچگی داده ها ، پهنای باند ارتباطی و حریم خصوصی جمع آوری شده است ، در دستگاهی باقی بماند.در این مقاله یک الگوریتم رگرسیون کمی فدرال برای رفع این چالش ها معرفی شده است.رگرسیون کوانتیل دیدگاه جامع تری از رابطه بین متغیرها نسبت به مدل های رگرسیون ارائه می دهد.با این حال ، رویکردهای سنتی هنگام برخورد با مجازات های پراکنده غیر کنسوکس و عدم صافی ذاتی عملکرد از دست دادن با مشکلات روبرو هستند.برای این منظور ، ما یک الگوریتم شیب پروگزیمال هموار سازی فدرال (FSPG) را پیشنهاد می کنیم که یک مکانیسم هموار سازی را با چارچوب گرادیان پروگزیمال ادغام می کند ، از این طریق هم دقت و هم سرعت محاسباتی را افزایش می دهد.این ادغام کاملاً بهینه سازی بر روی شبکه ای از دستگاه ها ، هر یک از نمونه های داده محلی را در اختیار دارد و آن را در سناریوهای یادگیری فدرال موثر می کند.الگوریتم FSPG با حفظ یا کاهش مقدار عملکرد هدف ، پیشرفت پایدار و همگرایی قابل اعتماد در هر تکرار را تضمین می کند.با استفاده از مجازات های غیر کنفکس ، مانند مجازات مقعر Minimax (MCP) و انحراف مطلق (SCAD) به راحتی قطع شد ، روش پیشنهادی می تواند پیش بینی های اصلی را در مدل های پراکنده شناسایی و حفظ کند.شبیه سازی های جامع مبانی نظری قوی الگوریتم پیشنهادی را تأیید می کند و نشان می دهد که دقت تخمین بهبود یافته و همگرایی قابل اعتماد است.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله گرادیان پروگزیمال هموارسازی فدرال برای رگرسیون چندکی با جریمه‌های غیر محدب”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا