ترجمه فارسی مقاله پوشش تصادفی گرادیان به عنوان یک اقدام دفاعی برای نشت عمیق در یادگیری فدرال

520,000 تومان

عنوان مقاله به انگلیسی Random Gradient Masking as a Defensive Measure to Deep Leakage in Federated Learning
عنوان مقاله به فارسی ترجمه فارسی مقاله پوشش تصادفی گرادیان به عنوان یک اقدام دفاعی برای نشت عمیق در یادگیری فدرال
نویسندگان Joon Kim, Sejin Park
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 13
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,Cryptography and Security,یادگیری ماشین , رمزنگاری و امنیت ,
توضیحات Submitted 15 August, 2024; originally announced August 2024. , Comments: 13 pages, 5 figures, to be submitted to Applied Intelligence
توضیحات به فارسی ارسال شده در 15 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: 13 صفحه ، 5 شکل ، که به اطلاعات کاربردی ارسال می شود
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Federated Learning(FL), in theory, preserves privacy of individual clients’ data while producing quality machine learning models. However, attacks such as Deep Leakage from Gradients(DLG) severely question the practicality of FL. In this paper, we empirically evaluate the efficacy of four defensive methods against DLG: Masking, Clipping, Pruning, and Noising. Masking, while only previously studied as a way to compress information during parameter transfer, shows surprisingly robust defensive utility when compared to the other three established methods. Our experimentation is two-fold. We first evaluate the minimum hyperparameter threshold for each method across MNIST, CIFAR-10, and lfw datasets. Then, we train FL clients with each method and their minimum threshold values to investigate the trade-off between DLG defense and training performance. Results reveal that Masking and Clipping show near to none degradation in performance while obfuscating enough information to effectively defend against DLG.

چکیده به فارسی (ترجمه ماشینی)

در تئوری ، یادگیری فدرال (FL) ضمن تولید مدلهای یادگیری ماشین با کیفیت ، حریم خصوصی داده های مشتری را حفظ می کند.با این حال ، حملات مانند نشت عمیق از شیب (DLG) از عملی بودن FL به شدت زیر سوال می رود.در این مقاله ، ما به صورت تجربی اثربخشی چهار روش دفاعی در برابر DLG را ارزیابی می کنیم: ماسک ، قطع ، هرس و نویز.نقاب زدن ، در حالی که قبلاً فقط به عنوان راهی برای فشرده سازی اطلاعات در هنگام انتقال پارامتر مورد مطالعه قرار گرفته بود ، اما در مقایسه با سه روش دیگر ، ابزار دفاعی با تعجب قوی را نشان می دهد.آزمایش ما دو برابر است.ما ابتدا حداقل آستانه هایپرپارامتر را برای هر روش در مجموعه داده های MNIST ، CIFAR-10 و LFW ارزیابی می کنیم.سپس ، ما مشتری های FL را با هر روش و حداقل مقادیر آستانه آنها آموزش می دهیم تا تجارت بین دفاع DLG و عملکرد آموزش را بررسی کنیم.نتایج نشان می دهد که ماسک و قطع در نزدیکی هیچ یک از تخریب در عملکرد نشان می دهد در حالی که اطلاعات کافی را برای دفاع مؤثر در برابر DLG نشان می دهد.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله پوشش تصادفی گرادیان به عنوان یک اقدام دفاعی برای نشت عمیق در یادگیری فدرال”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا