| عنوان مقاله به انگلیسی | An Efficient Replay for Class-Incremental Learning with Pre-trained Models | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله پخش مجدد کارآمد برای یادگیری کلاس با مدل های از پیش آموزش دیده | ||||||||
| نویسندگان | Weimin Yin, Bin Chen adn Chunzhao Xie, Zhenhao Tan | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 10 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , | ||||||||
| توضیحات | Submitted 15 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارسال شده در 15 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
In general class-incremental learning, researchers typically use sample sets as a tool to avoid catastrophic forgetting during continuous learning. At the same time, researchers have also noted the differences between class-incremental learning and Oracle training and have attempted to make corrections. In recent years, researchers have begun to develop class-incremental learning algorithms utilizing pre-trained models, achieving significant results. This paper observes that in class-incremental learning, the steady state among the weight guided by each class center is disrupted, which is significantly correlated with catastrophic forgetting. Based on this, we propose a new method to overcoming forgetting . In some cases, by retaining only a single sample unit of each class in memory for replay and applying simple gradient constraints, very good results can be achieved. Experimental results indicate that under the condition of pre-trained models, our method can achieve competitive performance with very low computational cost and by simply using the cross-entropy loss.
چکیده به فارسی (ترجمه ماشینی)
به طور کلی یادگیری کلاسیک ، محققان به طور معمول از مجموعه نمونه ها به عنوان ابزاری برای جلوگیری از فراموشی فاجعه بار در هنگام یادگیری مداوم استفاده می کنند.در عین حال ، محققان همچنین تفاوت های بین یادگیری کلاس و آموزش اوراکل را ذکر کرده اند و سعی در انجام اصلاحات دارند.در سالهای اخیر ، محققان شروع به توسعه الگوریتم های یادگیری کلاس با استفاده از مدلهای از پیش آموزش داده شده و به نتایج قابل توجهی می رسند.در این مقاله مشاهده می شود که در یادگیری کلاسیک ، حالت پایدار در بین وزن هدایت شده توسط هر مرکز کلاس مختل می شود که با فراموشی فاجعه بار ارتباط قابل توجهی دارد.بر این اساس ، ما یک روش جدید برای غلبه بر فراموشی پیشنهاد می کنیم.در بعضی موارد ، با حفظ فقط یک واحد نمونه واحد از هر کلاس در حافظه برای پخش و استفاده از محدودیت های شیب ساده ، می توان نتایج بسیار خوبی را بدست آورد.نتایج تجربی نشان می دهد که تحت شرط مدل های از پیش آموزش دیده ، روش ما می تواند با هزینه محاسباتی بسیار کم و با استفاده از از دست دادن متقابل آنتروپی ، به عملکرد رقابتی برسد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.