| عنوان مقاله به انگلیسی | Universal Approximation Theory: Foundations for Parallelism in Neural Networks |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله نظریه تقریب جهانی: مبانی موازیسازی در شبکههای عصبی |
| نویسندگان | Wei Wang, Qing Li |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 12 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 18 August, 2024; v1 submitted 31 July, 2024; originally announced July 2024. |
| توضیحات به فارسی | ارائه شده در 18 اوت 2024 ؛V1 ارسال شده 31 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 480,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Neural networks are increasingly evolving towards training large models with big data, a method that has demonstrated superior performance across many tasks. However, this approach introduces an urgent problem: current deep learning models are predominantly serial, meaning that as the number of network layers increases, so do the training and inference times. This is unacceptable if deep learning is to continue advancing. Therefore, this paper proposes a deep learning parallelization strategy based on the Universal Approximation Theorem (UAT). From this foundation, we designed a parallel network called Para-Former to test our theory. Unlike traditional serial models, the inference time of Para-Former does not increase with the number of layers, significantly accelerating the inference speed of multi-layer networks. Experimental results validate the effectiveness of this network.
چکیده به فارسی (ترجمه ماشینی)
شبکه های عصبی به طور فزاینده ای به سمت آموزش مدلهای بزرگ با داده های بزرگ در حال تحول هستند ، روشی که عملکرد برتر را در بسیاری از کارها نشان داده است.با این حال ، این رویکرد یک مشکل فوری را به وجود می آورد: مدل های یادگیری عمیق فعلی عمدتاً سریال هستند ، به این معنی که با افزایش تعداد لایه های شبکه ، زمان آموزش و استنباط نیز انجام می شود.اگر یادگیری عمیق به پیشرفت ادامه یابد ، این غیرقابل قبول است.بنابراین ، این مقاله یک استراتژی موازی سازی عمیق یادگیری مبتنی بر قضیه تقریبی جهانی (UAT) را ارائه می دهد.از این بنیاد ، ما یک شبکه موازی به نام Para-Former طراحی کردیم تا نظریه خود را آزمایش کنیم.بر خلاف مدل های سریال سنتی ، زمان استنباط پاراگراف با تعداد لایه ها افزایش نمی یابد و سرعت استنتاج شبکه های چند لایه را به میزان قابل توجهی تسریع می کند.نتایج تجربی اثربخشی این شبکه را تأیید می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.