| عنوان مقاله به انگلیسی | Model Hijacking Attack in Federated Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله حمله مدل ربایی در یادگیری فدرال |
| نویسندگان | Zheng Li, Siyuan Wu, Ruichuan Chen, Paarijaat Aditya, Istemi Ekin Akkus, Manohar Vanga, Min Zhang, Hao Li, Yang Zhang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 16 |
| دسته بندی موضوعات | Cryptography and Security,Machine Learning,رمزنگاری و امنیت , یادگیری ماشین , |
| توضیحات | Submitted 4 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 4 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 640,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Machine learning (ML), driven by prominent paradigms such as centralized and federated learning, has made significant progress in various critical applications ranging from autonomous driving to face recognition. However, its remarkable success has been accompanied by various attacks. Recently, the model hijacking attack has shown that ML models can be hijacked to execute tasks different from their original tasks, which increases both accountability and parasitic computational risks. Nevertheless, thus far, this attack has only focused on centralized learning. In this work, we broaden the scope of this attack to the federated learning domain, where multiple clients collaboratively train a global model without sharing their data. Specifically, we present HijackFL, the first-of-its-kind hijacking attack against the global model in federated learning. The adversary aims to force the global model to perform a different task (called hijacking task) from its original task without the server or benign client noticing. To accomplish this, unlike existing methods that use data poisoning to modify the target model’s parameters, HijackFL searches for pixel-level perturbations based on their local model (without modifications) to align hijacking samples with the original ones in the feature space. When performing the hijacking task, the adversary applies these cloaks to the hijacking samples, compelling the global model to identify them as original samples and predict them accordingly. We conduct extensive experiments on four benchmark datasets and three popular models. Empirical results demonstrate that its attack performance outperforms baselines. We further investigate the factors that affect its performance and discuss possible defenses to mitigate its impact.
چکیده به فارسی (ترجمه ماشینی)
یادگیری ماشین (ML) ، که توسط پارادایم های برجسته مانند یادگیری متمرکز و فدراسیون هدایت می شود ، در برنامه های مختلف مهم از رانندگی خودمختار تا تشخیص چهره پیشرفت چشمگیری داشته است.با این حال ، موفقیت قابل توجه آن با حملات مختلف همراه بوده است.به تازگی ، حمله ربودن مدل نشان داده است که مدل های ML می توانند برای انجام وظایف متفاوت از کارهای اصلی خود ، ربوده شوند ، که هم پاسخگویی و هم خطرات محاسباتی انگلی را افزایش می دهد.با این وجود ، تاکنون این حمله فقط به یادگیری متمرکز متمرکز شده است.در این کار ، ما دامنه این حمله را به دامنه یادگیری فدرال گسترش می دهیم ، جایی که چندین مشتری به طور مشترک بدون به اشتراک گذاشتن داده های خود ، یک مدل جهانی را آموزش می دهند.به طور خاص ، ما Hijackfl را ارائه می دهیم ، اولین حمله ربوده شده از نوع آن علیه مدل جهانی در یادگیری فدرال.هدف مخالف این است که الگوی جهانی را مجبور به انجام یک کار متفاوت (به نام کار ربودن) از کار اصلی خود بدون سرور یا مشتری خوش خیم کند.برای دستیابی به این هدف ، بر خلاف روشهای موجود که از مسمومیت داده ها برای تغییر پارامترهای مدل هدف استفاده می کنند ، HijackFL برای آشفتگی های سطح پیکسل بر اساس مدل محلی خود (بدون اصلاح) جستجو می کند تا نمونه های ربوده شده را با نمونه های اصلی در فضای ویژگی تراز کنید.هنگام انجام کار ربودن ، طرف مقابل این لباس ها را در نمونه های ربوده کننده اعمال می کند و مدل جهانی را وادار می کند تا آنها را به عنوان نمونه های اصلی شناسایی کند و بر این اساس آنها را پیش بینی کند.ما آزمایش های گسترده ای را در چهار مجموعه داده معیار و سه مدل محبوب انجام می دهیم.نتایج تجربی نشان می دهد که عملکرد حمله آن بهتر از خطوط پایه است.ما بیشتر عواملی را که بر عملکرد آن تأثیر می گذارد بررسی می کنیم و در مورد دفاع های احتمالی برای کاهش تأثیر آن بحث می کنیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.