| عنوان مقاله به انگلیسی | Differentially Private Block-wise Gradient Shuffle for Deep Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله درهمسازی گرادیان بلوکی با حریم خصوصی تفاضلی برای یادگیری عمیق |
| نویسندگان | David Zagardo |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 43 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Cryptography and Security,یادگیری ماشین , هوش مصنوعی , رمزنگاری و امنیت , |
| توضیحات | Submitted 31 July, 2024; originally announced July 2024. , Comments: 43 pages, 11 figures, 8 tables |
| توضیحات به فارسی | ارسال 31 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد ، نظرات: 43 صفحه ، 11 شکل ، 8 میز |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 1,720,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Traditional Differentially Private Stochastic Gradient Descent (DP-SGD) introduces statistical noise on top of gradients drawn from a Gaussian distribution to ensure privacy. This paper introduces the novel Differentially Private Block-wise Gradient Shuffle (DP-BloGS) algorithm for deep learning. BloGS builds off of existing private deep learning literature, but makes a definitive shift by taking a probabilistic approach to gradient noise introduction through shuffling modeled after information theoretic privacy analyses. The theoretical results presented in this paper show that the combination of shuffling, parameter-specific block size selection, batch layer clipping, and gradient accumulation allows DP-BloGS to achieve training times close to that of non-private training while maintaining similar privacy and utility guarantees to DP-SGD. DP-BloGS is found to be significantly more resistant to data extraction attempts than DP-SGD. The theoretical results are validated by the experimental findings.
چکیده به فارسی (ترجمه ماشینی)
نزول شیب تصادفی متفاوتی خصوصی (DP-SGD) سر و صدای آماری را در بالای شیب های حاصل از توزیع گاوسی برای اطمینان از حریم خصوصی معرفی می کند.در این مقاله الگوریتم شیب شیب بلوک (DP-Blogs) برای یادگیری عمیق ، رمان متفاوتی را معرفی می کند.وبلاگ ها از ادبیات یادگیری عمیق خصوصی موجود استفاده می کنند ، اما با در نظر گرفتن یک رویکرد احتمالی به معرفی سر و صدای شیب از طریق تغییر شکل مدل شده پس از تجزیه و تحلیل حریم خصوصی نظری اطلاعات ، یک تغییر قطعی ایجاد می کنند.نتایج نظری ارائه شده در این مقاله نشان می دهد که ترکیبی از جابجایی ، انتخاب اندازه بلوک خاص پارامتر ، قطع لایه دسته ای و تجمع شیب به DP-Blogs اجازه می دهد تا ضمن حفظ حریم خصوصی و کاربرد مشابه ، به زمان آموزش نزدیک به آموزش غیر خصوصی دست یابند.تضمین شده به DP-SGD.DP-Blogs نسبت به DP-SGD نسبت به تلاش برای استخراج داده ها به طور قابل توجهی مقاوم تر است.نتایج نظری با یافته های تجربی تأیید می شود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.