ترجمه فارسی مقاله محدود کردن تمرکز: بهینه سازی های آموخته شده برای مدل های پیش ساخته

320,000 تومان

عنوان مقاله به انگلیسی Narrowing the Focus: Learned Optimizers for Pretrained Models
عنوان مقاله به فارسی ترجمه فارسی مقاله محدود کردن تمرکز: بهینه سازی های آموخته شده برای مدل های پیش ساخته
نویسندگان Gus Kristiansen, Mark Sandler, Andrey Zhmoginov, Nolan Miller, Anirudh Goyal, Jihwan Lee, Max Vladymyrov
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 16
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,یادگیری ماشین ,
توضیحات Submitted 21 August, 2024; v1 submitted 17 August, 2024; originally announced August 2024.
توضیحات به فارسی ارائه شده 21 اوت 2024 ؛V1 ارسال شده 17 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

In modern deep learning, the models are learned by applying gradient updates using an optimizer, which transforms the updates based on various statistics. Optimizers are often hand-designed and tuning their hyperparameters is a big part of the training process. Learned optimizers have shown some initial promise, but are generally unsuccessful as a general optimization mechanism applicable to every problem. In this work we explore a different direction: instead of learning general optimizers, we instead specialize them to a specific training environment. We propose a novel optimizer technique that learns a layer-specific linear combination of update directions provided by a set of base optimizers, effectively adapting its strategy to the specific model and dataset. When evaluated on image classification tasks, this specialized optimizer significantly outperforms both traditional off-the-shelf methods such as Adam, as well as existing general learned optimizers. Moreover, it demonstrates robust generalization with respect to model initialization, evaluating on unseen datasets, and training durations beyond its meta-training horizon.

چکیده به فارسی (ترجمه ماشینی)

در یادگیری عمیق مدرن ، مدل ها با استفاده از به روزرسانی های شیب با استفاده از یک بهینه ساز ، که به روزرسانی ها را بر اساس آمار مختلف تبدیل می کند ، آموخته می شوند.بهینه سازها اغلب طراحی شده اند و تنظیم بیش از حد آنها بخش بزرگی از روند آموزش است.بهینه سازهای آموخته شده وعده های اولیه را نشان داده اند ، اما به طور کلی به عنوان یک مکانیسم بهینه سازی عمومی که برای هر مشکل قابل استفاده است ، ناموفق هستند.در این کار ما یک جهت متفاوت را کشف می کنیم: به جای یادگیری بهینه سازهای عمومی ، در عوض ما آنها را در یک محیط آموزشی خاص تخصص می دهیم.ما یک تکنیک بهینه ساز جدید را پیشنهاد می کنیم که یک ترکیب خطی خاص لایه از جهت های بروزرسانی ارائه شده توسط مجموعه ای از بهینه سازان پایه را می آموزد ، و به طور مؤثر استراتژی آن را با مدل و مجموعه داده های خاص سازگار می کند.هنگامی که در وظایف طبقه بندی تصویر ارزیابی می شود ، این بهینه ساز تخصصی به طور قابل توجهی از هر دو روش سنتی خارج از قفسه مانند آدم و همچنین بهینه سازهای موجود در کل موجود است.علاوه بر این ، این تعمیم قوی با توجه به اولیه سازی مدل ، ارزیابی در مجموعه داده های غیب و مدت زمان آموزش فراتر از افق متا-ترحم آن را نشان می دهد.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله محدود کردن تمرکز: بهینه سازی های آموخته شده برای مدل های پیش ساخته”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا