عنوان مقاله به انگلیسی | Byzantine Robustness and Partial Participation Can Be Achieved Simultaneously: Just Clip Gradient Differences |
عنوان مقاله به فارسی | مقاله استحکام بیزانس و مشارکت جزئی می تواند به طور همزمان به دست آید: فقط اختلافات شیب را کلیپ کنید |
نویسندگان | Grigory Malinovsky, Peter Richtárik, Samuel Horváth, Eduard Gorbunov |
زبان مقاله | انگلیسی |
فرمت مقاله: | |
تعداد صفحات | 0 |
دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Distributed, Parallel, and Cluster Computing,Optimization and Control,یادگیری ماشین , هوش مصنوعی , توزیع شده , موازی و محاسبات خوشه ای , بهینه سازی و کنترل |
توضیحات | Submitted 23 November, 2023; originally announced November 2023. , Comments: 50 pages; 1 figure |
توضیحات به فارسی | ارسال شده 23 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد ، نظرات: 50 صفحه ؛1 شکل |
چکیده
Distributed learning has emerged as a leading paradigm for training large machine learning models. However, in real-world scenarios, participants may be unreliable or malicious, posing a significant challenge to the integrity and accuracy of the trained models. Byzantine fault tolerance mechanisms have been proposed to address these issues, but they often assume full participation from all clients, which is not always practical due to the unavailability of some clients or communication constraints. In our work, we propose the first distributed method with client sampling and provable tolerance to Byzantine workers. The key idea behind the developed method is the use of gradient clipping to control stochastic gradient differences in recursive variance reduction. This allows us to bound the potential harm caused by Byzantine workers, even during iterations when all sampled clients are Byzantine. Furthermore, we incorporate communication compression into the method to enhance communication efficiency. Under quite general assumptions, we prove convergence rates for the proposed method that match the existing state-of-the-art (SOTA) theoretical results.
چکیده به فارسی (ترجمه ماشینی)
یادگیری توزیع شده به عنوان یک الگوی پیشرو برای آموزش مدلهای یادگیری ماشین بزرگ ظاهر شده است.با این حال ، در سناریوهای دنیای واقعی ، شرکت کنندگان ممکن است غیرقابل اعتماد یا مخرب باشند و یک چالش مهم برای یکپارچگی و صحت مدلهای آموزش دیده ایجاد می کنند.مکانیسم های تحمل گسل بیزانس برای رسیدگی به این موضوعات پیشنهاد شده است ، اما آنها اغلب مشارکت کامل از همه مشتری ها را فرض می کنند ، که به دلیل عدم دسترسی برخی از مشتری ها یا محدودیت های ارتباطی ، همیشه عملی نیست.در کار خود ، اولین روش توزیع شده را با نمونه گیری مشتری و تحمل قابل اثبات به کارگران بیزانس پیشنهاد می کنیم.ایده اصلی در مورد روش توسعه یافته استفاده از قطع شیب برای کنترل تفاوت های شیب تصادفی در کاهش واریانس بازگشتی است.این به ما امکان می دهد آسیب های احتمالی ناشی از کارگران بیزانس را محدود کنیم ، حتی در هنگام تکرار ، وقتی همه مشتری های نمونه بیزانس هستند.علاوه بر این ، ما فشرده سازی ارتباطی را در روش تقویت راندمان ارتباطات درج می کنیم.تحت فرضیات کاملاً کلی ، ما نرخ همگرایی را برای روش پیشنهادی که مطابق با نتایج نظری پیشرفته ترین هنر (SOTA) است ، اثبات می کنیم.
توجه کنید این مقاله به زبان انگلیسی است. |
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|
نقد و بررسیها
هنوز بررسیای ثبت نشده است.