| عنوان مقاله به انگلیسی | Can LLMs predict the convergence of Stochastic Gradient Descent? |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله آیا LLM ها میتوانند همگرایی نزول گرادیان تصادفی را پیشبینی کنند؟ |
| نویسندگان | Oussama Zekri, Abdelhakim Benechehab, Ievgen Redko |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 9 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Machine Learning,یادگیری ماشین , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 3 August, 2024; originally announced August 2024. , Comments: 9 pages. Accepted to 1st ICML Workshop on In-Context Learning at ICML 2024 |
| توضیحات به فارسی | ارسال شده در 3 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: 9 صفحه.پذیرفته شده برای اولین کارگاه ICML در مورد یادگیری درون متن در ICML 2024 |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 360,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Large-language models are notoriously famous for their impressive performance across a wide range of tasks. One surprising example of such impressive performance is a recently identified capacity of LLMs to understand the governing principles of dynamical systems satisfying the Markovian property. In this paper, we seek to explore this direction further by studying the dynamics of stochastic gradient descent in convex and non-convex optimization. By leveraging the theoretical link between the SGD and Markov chains, we show a remarkable zero-shot performance of LLMs in predicting the local minima to which SGD converges for previously unseen starting points. On a more general level, we inquire about the possibility of using LLMs to perform zero-shot randomized trials for larger deep learning models used in practice.
چکیده به فارسی (ترجمه ماشینی)
مدلهای بزرگ به دلیل عملکرد چشمگیر خود در طیف گسترده ای از کارها بسیار مشهور هستند.یک نمونه شگفت آور از چنین عملکرد چشمگیر ، ظرفیت اخیراً مشخص شده LLMS برای درک اصول حاکم بر سیستم های دینامیکی است که دارایی مارکوویان را برآورده می کند.در این مقاله ، ما به دنبال این هستیم که با مطالعه پویایی نزول شیب تصادفی در بهینه سازی محدب و غیر کنفکس ، این جهت را بیشتر مورد بررسی قرار دهیم.با استفاده از پیوند نظری بین زنجیرهای SGD و مارکوف ، ما عملکرد قابل توجهی از صفر از LLMS را در پیش بینی حداقل محلی که SGD برای نقاط شروع قبلاً غیب به آن همگرا می شود ، نشان می دهیم.در یک سطح عمومی تر ، ما در مورد امکان استفاده از LLMS برای انجام آزمایشات تصادفی شات صفر برای مدلهای یادگیری عمیق بزرگتر مورد استفاده در عمل سؤال می کنیم.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.