| عنوان مقاله به انگلیسی | Deep Learning with Data Privacy via Residual Perturbation |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری عمیق با حفظ حریم خصوصی دادهها از طریق اختلال باقیمانده |
| نویسندگان | Wenqi Tao, Huaming Ling, Zuoqiang Shi, Bao Wang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 12 |
| دسته بندی موضوعات | Machine Learning,Cryptography and Security,Computer Vision and Pattern Recognition,یادگیری ماشین , رمزنگاری و امنیت , چشم انداز رایانه و تشخیص الگوی , |
| توضیحات | Submitted 11 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 11 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 480,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Protecting data privacy in deep learning (DL) is of crucial importance. Several celebrated privacy notions have been established and used for privacy-preserving DL. However, many existing mechanisms achieve privacy at the cost of significant utility degradation and computational overhead. In this paper, we propose a stochastic differential equation-based residual perturbation for privacy-preserving DL, which injects Gaussian noise into each residual mapping of ResNets. Theoretically, we prove that residual perturbation guarantees differential privacy (DP) and reduces the generalization gap of DL. Empirically, we show that residual perturbation is computationally efficient and outperforms the state-of-the-art differentially private stochastic gradient descent (DPSGD) in utility maintenance without sacrificing membership privacy.
چکیده به فارسی (ترجمه ماشینی)
محافظت از حریم خصوصی داده ها در یادگیری عمیق (DL) از اهمیت اساسی برخوردار است.چندین مفهوم مشهور حفظ حریم خصوصی ایجاد شده و برای حفظ حریم خصوصی DL استفاده شده است.با این حال ، بسیاری از مکانیسم های موجود با هزینه تخریب قابل توجه ابزار و سربار محاسباتی به حریم خصوصی دست می یابند.در این مقاله ، ما یک آشفتگی باقیمانده مبتنی بر معادله دیفرانسیل تصادفی را برای DL حفظ حریم خصوصی ارائه می دهیم ، که باعث ایجاد سر و صدای گاوسی در هر نقشه برداری باقیمانده از Resnets می شود.از لحاظ تئوریکی ، ما ثابت می کنیم که آشفتگی باقیمانده حریم خصوصی دیفرانسیل (DP) را تضمین می کند و شکاف تعمیم DL را کاهش می دهد.از لحاظ تجربی ، ما نشان می دهیم که آشفتگی باقیمانده از نظر محاسباتی کارآمد است و بهتر از نزول شیب تصادفی خصوصی (DPSGD) در نگهداری از خدمات بدون قربانی کردن حریم خصوصی عضویت ، بهتر است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.