| عنوان مقاله به انگلیسی | Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری در حین فراموشی: یک چارچوب تکرارشونده فراموشی برای مدلهای زبانی مولد |
| نویسندگان | Haoyu Tang, Ye Liu, Xukai Liu, Kai Zhang, Yanghai Zhang, Qi Liu, Enhong Chen |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 15 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Computation and Language,یادگیری ماشین , هوش مصنوعی , محاسبات و زبان , |
| توضیحات | Submitted 25 July, 2024; originally announced July 2024. |
| توضیحات به فارسی | ارسال شده 25 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 600,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Recent advancements in machine learning, especially in Natural Language Processing (NLP), have led to the development of sophisticated models trained on vast datasets, but this progress has raised concerns about potential sensitive information leakage. In response, regulatory measures like the EU General Data Protection Regulation (GDPR) have driven the exploration of Machine Unlearning techniques, which aim to enable models to selectively forget certain data entries. While early approaches focused on pre-processing methods, recent research has shifted towards training-based machine unlearning methods. However, many existing methods require access to original training data, posing challenges in scenarios where such data is unavailable. Besides, directly facilitating unlearning may undermine the language model’s general expressive ability. To this end, in this paper, we introduce the Iterative Contrastive Unlearning (ICU) framework, which addresses these challenges by incorporating three key components. We propose a Knowledge Unlearning Induction module for unlearning specific target sequences and a Contrastive Learning Enhancement module to prevent degrading in generation capacity. Additionally, an Iterative Unlearning Refinement module is integrated to make the process more adaptive to each target sample respectively. Experimental results demonstrate the efficacy of ICU in maintaining performance while efficiently unlearning sensitive information, offering a promising avenue for privacy-conscious machine learning applications.
چکیده به فارسی (ترجمه ماشینی)
پیشرفت های اخیر در یادگیری ماشین ، به ویژه در پردازش زبان طبیعی (NLP) ، منجر به توسعه مدل های پیشرفته آموزش داده شده در مجموعه داده های گسترده شده است ، اما این پیشرفت نگرانی هایی را در مورد نشت اطلاعات حساس بالقوه ایجاد کرده است.در پاسخ ، اقدامات نظارتی مانند مقررات حفاظت از داده های عمومی اتحادیه اروپا (GDPR) اکتشاف تکنیک های فرآورده های دستگاه را هدایت کرده است ، که هدف آن امکان فعال کردن مدل ها برای فراموش کردن برخی از ورودی های داده است.در حالی که رویکردهای اولیه بر روشهای پیش پردازش متمرکز شده است ، تحقیقات اخیر به سمت روشهای فرسوده دستگاه مبتنی بر آموزش تغییر یافته است.با این حال ، بسیاری از روشهای موجود نیاز به دسترسی به داده های آموزش اصلی دارند و در سناریوهایی که چنین داده هایی در دسترس نیستند ، چالش هایی را ایجاد می کنند.علاوه بر این ، تسهیل مستقیم آماری ممکن است توانایی بیان کلی مدل زبان را تضعیف کند.برای این منظور ، در این مقاله ، ما چارچوب تکرار شونده متضاد (ICU) را معرفی می کنیم ، که با ترکیب سه مؤلفه اصلی ، این چالش ها را برطرف می کند.ما یک ماژول القایی آگاهی از دانش را برای آراستگی توالی های هدف خاص و یک ماژول تقویت یادگیری متضاد برای جلوگیری از تخریب ظرفیت تولید پیشنهاد می کنیم.علاوه بر این ، یک ماژول پالایش درآمدهای تکراری یکپارچه شده است تا این روند به ترتیب با هر نمونه هدف سازگارتر شود.نتایج تجربی نشان دهنده اثربخشی ICU در حفظ عملکرد در حالی که به طور کارآمد اطلاعات حساس را نشان می دهد ، یک خیابان امیدوار کننده برای برنامه های یادگیری ماشین آگاهی از حریم خصوصی را ارائه می دهد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.