| عنوان مقاله به انگلیسی | Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله کاهش حملات مخرب در یادگیری فدرال از طریق دفاع آگاه از اعتماد |
| نویسندگان | Qilei Li, Ahmed M. Abdelmoniem |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 9 |
| دسته بندی موضوعات | Machine Learning,Cryptography and Security,Computer Vision and Pattern Recognition,Distributed, Parallel, and Cluster Computing,یادگیری ماشین , رمزنگاری و امنیت , چشم انداز رایانه و تشخیص الگوی , توزیع شده , موازی و محاسبات خوشه ای , |
| توضیحات | Submitted 16 August, 2024; v1 submitted 5 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارائه شده 16 اوت 2024 ؛V1 ارسال شده 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 360,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Federated Learning (FL) is a distributed machine learning diagram that enables multiple clients to collaboratively train a global model without sharing their private local data. However, FL systems are vulnerable to attacks that are happening in malicious clients through data poisoning and model poisoning, which can deteriorate the performance of aggregated global model. Existing defense methods typically focus on mitigating specific types of poisoning and are often ineffective against unseen types of attack. These methods also assume an attack happened moderately while is not always holds true in real. Consequently, these methods can significantly fail in terms of accuracy and robustness when detecting and addressing updates from attacked malicious clients. To overcome these challenges, in this work, we propose a simple yet effective framework to detect malicious clients, namely Confidence-Aware Defense (CAD), that utilizes the confidence scores of local models as criteria to evaluate the reliability of local updates. Our key insight is that malicious attacks, regardless of attack type, will cause the model to deviate from its previous state, thus leading to increased uncertainty when making predictions. Therefore, CAD is comprehensively effective for both model poisoning and data poisoning attacks by accurately identifying and mitigating potential malicious updates, even under varying degrees of attacks and data heterogeneity. Experimental results demonstrate that our method significantly enhances the robustness of FL systems against various types of attacks across various scenarios by achieving higher model accuracy and stability.
چکیده به فارسی (ترجمه ماشینی)
Federated Learning (FL) یک نمودار یادگیری ماشین توزیع شده است که چندین مشتری را قادر می سازد بدون به اشتراک گذاشتن داده های محلی خصوصی خود ، به طور مشترک یک مدل جهانی را آموزش دهند.با این حال ، سیستم های FL در برابر حملات که در مراجعین مخرب از طریق مسمومیت داده ها و مسمومیت با مدل اتفاق می افتد ، آسیب پذیر هستند ، که می تواند عملکرد مدل جهانی جمع شده را بدتر کند.روشهای دفاعی موجود به طور معمول بر کاهش انواع خاص مسمومیت متمرکز شده و اغلب در برابر انواع غیب حمله ناکارآمد هستند.این روشها همچنین فرض می کنند که حمله ای به طور متوسط اتفاق افتاده است در حالی که همیشه در حقیقت صادق نیست.در نتیجه ، این روش ها می توانند از نظر دقت و استحکام در هنگام تشخیص و پرداختن به به روزرسانی های مشتری های مخرب حمله کنند.برای غلبه بر این چالش ها ، در این کار ، ما یک چارچوب ساده و در عین حال مؤثر را برای شناسایی مشتری های مخرب ، یعنی دفاع آگاه از اعتماد به نفس (CAD) پیشنهاد می کنیم که از نمرات اعتماد به نفس مدل های محلی به عنوان معیارهایی برای ارزیابی قابلیت اطمینان به روزرسانی های محلی استفاده می کند.بینش اصلی ما این است که حملات مخرب ، صرف نظر از نوع حمله ، باعث می شود که مدل از وضعیت قبلی خود منحرف شود ، بنابراین منجر به افزایش عدم اطمینان هنگام پیش بینی می شود.بنابراین ، CAD با شناسایی دقیق و کاهش به روزرسانی های مخرب بالقوه ، حتی در درجه های مختلف حملات و ناهمگونی داده ها ، برای هر دو حمله مسمومیت با مدل و حملات مسمومیت داده موثر است.نتایج تجربی نشان می دهد که روش ما با دستیابی به دقت و ثبات مدل بالاتر ، استحکام سیستم های FL را در برابر انواع مختلف حملات در سناریوهای مختلف افزایش می دهد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.