| عنوان مقاله به انگلیسی | On the Convergence of a Federated Expectation-Maximization Algorithm |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله در مورد همگرایی یک الگوریتم فدرالی حداکثرسازی امید |
| نویسندگان | Zhixu Tao, Rajita Chandak, Sanjeev Kulkarni |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 43 |
| دسته بندی موضوعات | Machine Learning,Machine Learning,یادگیری ماشین , یادگیری ماشین , |
| توضیحات | Submitted 11 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 11 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,720,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Data heterogeneity has been a long-standing bottleneck in studying the convergence rates of Federated Learning algorithms. In order to better understand the issue of data heterogeneity, we study the convergence rate of the Expectation-Maximization (EM) algorithm for the Federated Mixture of $K$ Linear Regressions model. We fully characterize the convergence rate of the EM algorithm under all regimes of $m/n$ where $m$ is the number of clients and $n$ is the number of data points per client. We show that with a signal-to-noise-ratio (SNR) of order $Ω(sqrt{K})$, the well-initialized EM algorithm converges within the minimax distance of the ground truth under each of the regimes. Interestingly, we identify that when $m$ grows exponentially in $n$, the EM algorithm only requires a constant number of iterations to converge. We perform experiments on synthetic datasets to illustrate our results. Surprisingly, the results show that rather than being a bottleneck, data heterogeneity can accelerate the convergence of federated learning algorithms.
چکیده به فارسی (ترجمه ماشینی)
ناهمگونی داده ها یک تنگنا دیرینه در مطالعه میزان همگرایی الگوریتم های یادگیری فدرال شده است.به منظور درک بهتر مسئله ناهمگونی داده ها ، ما میزان همگرایی الگوریتم انتظار-حرکت (EM) را برای مخلوط فدرال از مدل رگرسیون خطی $ $ $ بررسی می کنیم.ما به طور کامل نرخ همگرایی الگوریتم EM را تحت کلیه رژیم های $ m/n $ مشخص می کنیم که در آن $ m $ تعداد مشتری ها و $ n $ تعداد نقاط داده برای هر مشتری است.ما نشان می دهیم که با یک نسبت سیگنال به نویز (SNR) سفارش $ ω ( sqrt {k}) $ ، الگوریتم EM خوب به خوبی آغاز می شود در فاصله حداقلی از حقیقت زمین تحت هر یک از رژیم ها.جالب اینجاست که ما تشخیص می دهیم که وقتی $ m $ به صورت نمایی در $ n $ رشد می کند ، الگوریتم EM فقط برای همگرایی به تعداد ثابت تکرارها نیاز دارد.ما آزمایشاتی را در مجموعه داده های مصنوعی انجام می دهیم تا نتایج خود را نشان دهیم.با کمال تعجب ، نتایج نشان می دهد که به جای اینکه یک تنگنا باشد ، ناهمگونی داده ها می توانند همگرایی الگوریتم های یادگیری فدرال را تسریع کنند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.