| عنوان مقاله به انگلیسی | Random Gradient Masking as a Defensive Measure to Deep Leakage in Federated Learning | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله پوشش تصادفی گرادیان به عنوان یک اقدام دفاعی برای نشت عمیق در یادگیری فدرال | ||||||||
| نویسندگان | Joon Kim, Sejin Park | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 13 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Cryptography and Security,یادگیری ماشین , رمزنگاری و امنیت , | ||||||||
| توضیحات | Submitted 15 August, 2024; originally announced August 2024. , Comments: 13 pages, 5 figures, to be submitted to Applied Intelligence | ||||||||
| توضیحات به فارسی | ارسال شده در 15 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: 13 صفحه ، 5 شکل ، که به اطلاعات کاربردی ارسال می شود | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Federated Learning(FL), in theory, preserves privacy of individual clients’ data while producing quality machine learning models. However, attacks such as Deep Leakage from Gradients(DLG) severely question the practicality of FL. In this paper, we empirically evaluate the efficacy of four defensive methods against DLG: Masking, Clipping, Pruning, and Noising. Masking, while only previously studied as a way to compress information during parameter transfer, shows surprisingly robust defensive utility when compared to the other three established methods. Our experimentation is two-fold. We first evaluate the minimum hyperparameter threshold for each method across MNIST, CIFAR-10, and lfw datasets. Then, we train FL clients with each method and their minimum threshold values to investigate the trade-off between DLG defense and training performance. Results reveal that Masking and Clipping show near to none degradation in performance while obfuscating enough information to effectively defend against DLG.
چکیده به فارسی (ترجمه ماشینی)
در تئوری ، یادگیری فدرال (FL) ضمن تولید مدلهای یادگیری ماشین با کیفیت ، حریم خصوصی داده های مشتری را حفظ می کند.با این حال ، حملات مانند نشت عمیق از شیب (DLG) از عملی بودن FL به شدت زیر سوال می رود.در این مقاله ، ما به صورت تجربی اثربخشی چهار روش دفاعی در برابر DLG را ارزیابی می کنیم: ماسک ، قطع ، هرس و نویز.نقاب زدن ، در حالی که قبلاً فقط به عنوان راهی برای فشرده سازی اطلاعات در هنگام انتقال پارامتر مورد مطالعه قرار گرفته بود ، اما در مقایسه با سه روش دیگر ، ابزار دفاعی با تعجب قوی را نشان می دهد.آزمایش ما دو برابر است.ما ابتدا حداقل آستانه هایپرپارامتر را برای هر روش در مجموعه داده های MNIST ، CIFAR-10 و LFW ارزیابی می کنیم.سپس ، ما مشتری های FL را با هر روش و حداقل مقادیر آستانه آنها آموزش می دهیم تا تجارت بین دفاع DLG و عملکرد آموزش را بررسی کنیم.نتایج نشان می دهد که ماسک و قطع در نزدیکی هیچ یک از تخریب در عملکرد نشان می دهد در حالی که اطلاعات کافی را برای دفاع مؤثر در برابر DLG نشان می دهد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.