ترجمه فارسی مقاله بهینه سازی نرخ یادگیری برای شبکه های عصبی عمیق با استفاده از راهزن های لیپشیتز

100,000 تومان

عنوان مقاله به انگلیسی Learning Rate Optimization for Deep Neural Networks Using Lipschitz Bandits
عنوان مقاله به فارسی ترجمه فارسی مقاله بهینه سازی نرخ یادگیری برای شبکه های عصبی عمیق با استفاده از راهزن های لیپشیتز
نویسندگان Padma Priyanka, Sheetal Kalyani, Avhishek Chatterjee
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 5
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,یادگیری ماشین ,
توضیحات Submitted 15 September, 2024; originally announced September 2024.
توضیحات به فارسی ارسال شده در 15 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Learning rate is a crucial parameter in training of neural networks. A properly tuned learning rate leads to faster training and higher test accuracy. In this paper, we propose a Lipschitz bandit-driven approach for tuning the learning rate of neural networks. The proposed approach is compared with the popular HyperOpt technique used extensively for hyperparameter optimization and the recently developed bandit-based algorithm BLiE. The results for multiple neural network architectures indicate that our method finds a better learning rate using a) fewer evaluations and b) lesser number of epochs per evaluation, when compared to both HyperOpt and BLiE. Thus, the proposed approach enables more efficient training of neural networks, leading to lower training time and lesser computational cost.

چکیده به فارسی (ترجمه ماشینی)

نرخ یادگیری یک پارامتر مهم در آموزش شبکه های عصبی است.نرخ یادگیری به درستی تنظیم شده منجر به آموزش سریعتر و دقت آزمون بالاتر می شود.در این مقاله ، ما یک رویکرد راهزن محور Lipschitz را برای تنظیم میزان یادگیری شبکه های عصبی پیشنهاد می کنیم.رویکرد پیشنهادی با تکنیک محبوب HyperOPT که به طور گسترده برای بهینه سازی هایپرپارامتر و الگوریتم مبتنی بر راهزنی اخیراً توسعه یافته مورد استفاده قرار می گیرد ، مقایسه می شود.نتایج مربوط به معماری های چند شبکه عصبی نشان می دهد که روش ما با استفاده از A) ارزیابی کمتر و ب) تعداد کمتری از دوره ها در هر ارزیابی ، در مقایسه با HyperOpt و BLIE ، میزان یادگیری بهتری پیدا می کند.بنابراین ، رویکرد پیشنهادی آموزش کارآمدتر شبکه های عصبی را امکان پذیر می کند و منجر به پایین آمدن زمان آموزش و هزینه محاسباتی کمتری می شود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله بهینه سازی نرخ یادگیری برای شبکه های عصبی عمیق با استفاده از راهزن های لیپشیتز”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا