عنوان مقاله به انگلیسی | Fooling SHAP with Output Shuffling Attacks | ||||||||
عنوان مقاله به فارسی | ترجمه فارسی مقاله فریب دادن SHAP با حملات مخلوط کردن خروجی | ||||||||
نویسندگان | Jun Yuan, Aritra Dasgupta | ||||||||
فرمت مقاله انگلیسی | |||||||||
زبان مقاله تحویلی | ترجمه فارسی | ||||||||
فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
تعداد صفحات | 10 | ||||||||
لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Cryptography and Security,یادگیری ماشین , هوش مصنوعی , رمزنگاری و امنیت , | ||||||||
توضیحات | Submitted 12 August, 2024; originally announced August 2024. | ||||||||
توضیحات به فارسی | ارائه شده 12 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Explainable AI~(XAI) methods such as SHAP can help discover feature attributions in black-box models. If the method reveals a significant attribution from a “protected feature” (e.g., gender, race) on the model output, the model is considered unfair. However, adversarial attacks can subvert the detection of XAI methods. Previous approaches to constructing such an adversarial model require access to underlying data distribution, which may not be possible in many practical scenarios. We relax this constraint and propose a novel family of attacks, called shuffling attacks, that are data-agnostic. The proposed attack strategies can adapt any trained machine learning model to fool Shapley value-based explanations. We prove that Shapley values cannot detect shuffling attacks. However, algorithms that estimate Shapley values, such as linear SHAP and SHAP, can detect these attacks with varying degrees of effectiveness. We demonstrate the efficacy of the attack strategies by comparing the performance of linear SHAP and SHAP using real-world datasets.
چکیده به فارسی (ترجمه ماشینی)
روشهای قابل توضیح AI ~ (XAI) مانند Shap می تواند به کشف ویژگی های ویژگی در مدل های جعبه سیاه کمک کند.اگر این روش یک ویژگی قابل توجه را از “ویژگی محافظت شده” (به عنوان مثال ، جنسیت ، نژاد) در خروجی مدل نشان دهد ، مدل ناعادلانه در نظر گرفته می شود.با این حال ، حملات مخالف می تواند تشخیص روش های XAI را خراب کند.رویکردهای قبلی برای ساخت چنین مدل مخالف ، نیاز به دسترسی به توزیع داده های اساسی دارد که ممکن است در بسیاری از سناریوهای عملی امکان پذیر نباشد.ما این محدودیت را آرام می کنیم و یک خانواده جدید از حملات به نام حملات Shuffling را پیشنهاد می کنیم که داده های آگنوستیک هستند.استراتژی های حمله پیشنهادی می تواند هر مدل یادگیری ماشین آموزش دیده را برای فریب توضیحات مبتنی بر ارزش Shapley تطبیق دهد.ما ثابت می کنیم که مقادیر شاپلی نمی تواند حملات تغییر شکل را تشخیص دهد.با این حال ، الگوریتم هایی که مقادیر Shapley را تخمین می زنند ، مانند Shap و Shap خطی ، می توانند این حملات را با درجات مختلف اثربخشی تشخیص دهند.ما با مقایسه عملکرد شکل خطی و شکل با استفاده از مجموعه داده های دنیای واقعی ، اثربخشی استراتژی های حمله را نشان می دهیم.
فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
نقد و بررسیها
هنوز بررسیای ثبت نشده است.