ترجمه فارسی مقاله SLCA++: قدرت تنظیم دقیق متوالی را برای یادگیری مستمر با قبل از آموزش آزاد کنید

560,000 تومان

عنوان مقاله به انگلیسی SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training
عنوان مقاله به فارسی ترجمه فارسی مقاله SLCA++: قدرت تنظیم دقیق متوالی را برای یادگیری مستمر با قبل از آموزش آزاد کنید
نویسندگان Gengwei Zhang, Liyuan Wang, Guoliang Kang, Ling Chen, Yunchao Wei
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 14
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Computer Vision and Pattern Recognition,Artificial Intelligence,Machine Learning,چشم انداز رایانه و تشخیص الگوی , هوش مصنوعی , یادگیری ماشین ,
توضیحات Submitted 15 August, 2024; originally announced August 2024. , Comments: This paper is an extension of our ICCV 23 paper (arXiv:2303.05118)
توضیحات به فارسی ارسال شده در 15 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: این مقاله پسوند مقاله ICCV 23 ما است (Arxiv: 2303.05118)
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

In recent years, continual learning with pre-training (CLPT) has received widespread interest, instead of its traditional focus of training from scratch. The use of strong pre-trained models (PTMs) can greatly facilitate knowledge transfer and alleviate catastrophic forgetting, but also suffers from progressive overfitting of pre-trained knowledge into specific downstream tasks. A majority of current efforts often keep the PTMs frozen and incorporate task-specific prompts to instruct representation learning, coupled with a prompt selection process for inference. However, due to the limited capacity of prompt parameters, this strategy demonstrates only sub-optimal performance in continual learning. In comparison, tuning all parameters of PTMs often provides the greatest potential for representation learning, making sequential fine-tuning (Seq FT) a fundamental baseline that has been overlooked in CLPT. To this end, we present an in-depth analysis of the progressive overfitting problem from the lens of Seq FT. Considering that the overly fast representation learning and the biased classification layer constitute this particular problem, we introduce the advanced Slow Learner with Classifier Alignment (SLCA++) framework to unleash the power of Seq FT, serving as a strong baseline approach for CLPT. Our approach involves a Slow Learner to selectively reduce the learning rate of backbone parameters, and a Classifier Alignment to align the disjoint classification layers in a post-hoc fashion. We further enhance the efficacy of SL with a symmetric cross-entropy loss, as well as employ a parameter-efficient strategy to implement Seq FT with SLCA++. Across a variety of continual learning scenarios on image classification benchmarks, our approach provides substantial improvements and outperforms state-of-the-art methods by a large margin. Code: https://github.com/GengDavid/SLCA.

چکیده به فارسی (ترجمه ماشینی)

در سالهای اخیر ، یادگیری مداوم با پیش آموزش (CLPT) به جای تمرکز سنتی آموزش از ابتدا ، مورد علاقه گسترده ای قرار گرفته است.استفاده از مدلهای از پیش آموزش قوی (PTMS) می تواند انتقال دانش را تا حد زیادی تسهیل کند و فراموشی فاجعه بار را کاهش دهد ، اما همچنین از پیشرفت بیش از حد دانش از پیش آموزش دیده در کارهای پایین دست خاص رنج می برد.اکثر تلاش های فعلی اغلب PTM ها را منجمد می کند و از دستورالعمل های خاص وظیفه برای آموزش یادگیری بازنمایی ، همراه با یک فرایند انتخاب سریع برای استنتاج استفاده می کند.با این حال ، با توجه به ظرفیت محدود پارامترهای سریع ، این استراتژی تنها عملکرد زیر بهینه را در یادگیری مداوم نشان می دهد.در مقایسه ، تنظیم تمام پارامترهای PTM ها اغلب بیشترین پتانسیل را برای یادگیری بازنمایی فراهم می کند ، و تنظیم دقیق پی در پی (SEQ FT) را یک پایه اساسی است که در CLPT نادیده گرفته شده است.برای این منظور ، ما یک تجزیه و تحلیل عمیق از مشکل بیش از حد پیشرونده از لنزهای Seq Ft ارائه می دهیم.با توجه به اینکه یادگیری بازنمایی بیش از حد سریع و لایه طبقه بندی مغرضانه این مشکل خاص را تشکیل می دهد ، ما یادگیرنده آهسته پیشرفته را با چارچوب تراز طبقه بندی کننده (SLCA ++) معرفی می کنیم تا قدرت SEQ FT را رها کنیم و به عنوان یک رویکرد پایه قوی برای CLPT خدمت کنیم.رویکرد ما شامل یک یادگیرنده آهسته برای کاهش انتخابی میزان یادگیری پارامترهای ستون فقرات و یک تراز طبقه بندی کننده برای تراز کردن لایه های طبقه بندی جداگانه به روشی پس از تعقیب است.ما بیشتر اثربخشی SL را با از دست دادن متقاطع متقارن آنتروپی ، و همچنین از یک استراتژی کارآمد پارامتر برای اجرای SEQ FT با SLCA ++ استفاده می کنیم.در میان انواع سناریوهای یادگیری مداوم در معیارهای طبقه بندی تصویر ، رویکرد ما پیشرفت های قابل توجهی را ارائه می دهد و روشهای پیشرفته ای را با حاشیه بزرگی انجام می دهد.کد: https://github.com/gengdavid/slca.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله SLCA++: قدرت تنظیم دقیق متوالی را برای یادگیری مستمر با قبل از آموزش آزاد کنید”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا