| عنوان مقاله به انگلیسی | One-Shot Collaborative Data Distillation |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله تقطیر دادههای مشارکتی یکباره |
| نویسندگان | William Holland, Chandra Thapa, Sarah Ali Siddiqui, Wei Shao, Seyit Camtepe |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 13 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 12 August, 2024; v1 submitted 5 August, 2024; originally announced August 2024. , ACM Class: I.2 |
| توضیحات به فارسی | ارائه شده 12 اوت 2024 ؛V1 ارسال شده 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، کلاس ACM: I.2 |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 520,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Large machine-learning training datasets can be distilled into small collections of informative synthetic data samples. These synthetic sets support efficient model learning and reduce the communication cost of data sharing. Thus, high-fidelity distilled data can support the efficient deployment of machine learning applications in distributed network environments. A naive way to construct a synthetic set in a distributed environment is to allow each client to perform local data distillation and to merge local distillations at a central server. However, the quality of the resulting set is impaired by heterogeneity in the distributions of the local data held by clients. To overcome this challenge, we introduce the first collaborative data distillation technique, called CollabDM, which captures the global distribution of the data and requires only a single round of communication between client and server. Our method outperforms the state-of-the-art one-shot learning method on skewed data in distributed learning environments. We also show the promising practical benefits of our method when applied to attack detection in 5G networks.
چکیده به فارسی (ترجمه ماشینی)
مجموعه داده های آموزش یادگیری ماشین بزرگ می تواند در مجموعه های کوچکی از نمونه های داده های مصنوعی آموزنده تقطیر شود.این مجموعه های مصنوعی از یادگیری مدل کارآمد پشتیبانی می کنند و هزینه ارتباطی به اشتراک گذاری داده ها را کاهش می دهند.بنابراین ، داده های مقطر با وفاداری بالا می توانند از استقرار کارآمد برنامه های یادگیری ماشین در محیط های شبکه توزیع شده پشتیبانی کنند.یک روش ساده لوحانه برای ساخت یک مجموعه مصنوعی در یک محیط توزیع شده این است که به هر مشتری اجازه دهد تا داده های محلی را انجام دهد و تقطیر محلی را در یک سرور مرکزی ادغام کند.با این حال ، کیفیت مجموعه حاصل از ناهمگونی در توزیع داده های محلی که توسط مشتریان نگهداری می شود ، مختل می شود.برای غلبه بر این چالش ، اولین تکنیک تقطیر داده های مشترک با نام COLLABDM را معرفی می کنیم که توزیع جهانی داده ها را ضبط می کند و فقط به یک دور از ارتباط بین مشتری و سرور نیاز دارد.روش ما از روش یادگیری یک شات پیشرفته در داده های skewed در محیط های یادگیری توزیع شده بهتر است.ما همچنین مزایای عملی امیدوار کننده روش خود را هنگام استفاده از حمله در شبکه های 5G نشان می دهیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.