| عنوان مقاله به انگلیسی | Scaling Continuous Kernels with Sparse Fourier Domain Learning | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله مقیاس گذاری هسته های پیوسته با یادگیری دامنه فوریه پراکنده | ||||||||
| نویسندگان | Clayton Harper, Luke Wood, Peter Gerstoft, Eric C. Larson | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 8 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Machine Learning,یادگیری ماشین , یادگیری ماشین , | ||||||||
| توضیحات | Submitted 15 September, 2024; originally announced September 2024. | ||||||||
| توضیحات به فارسی | ارسال شده در 15 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
We address three key challenges in learning continuous kernel representations: computational efficiency, parameter efficiency, and spectral bias. Continuous kernels have shown significant potential, but their practical adoption is often limited by high computational and memory demands. Additionally, these methods are prone to spectral bias, which impedes their ability to capture high-frequency details. To overcome these limitations, we propose a novel approach that leverages sparse learning in the Fourier domain. Our method enables the efficient scaling of continuous kernels, drastically reduces computational and memory requirements, and mitigates spectral bias by exploiting the Gibbs phenomenon.
چکیده به فارسی (ترجمه ماشینی)
ما به سه چالش اساسی در یادگیری بازنمایی های هسته مداوم پرداخته ایم: راندمان محاسباتی ، راندمان پارامتر و تعصب طیفی.هسته های مداوم پتانسیل قابل توجهی را نشان داده اند ، اما پذیرش عملی آنها اغلب با تقاضای محاسباتی و حافظه بالا محدود است.علاوه بر این ، این روش ها مستعد تعصب طیفی هستند که مانع توانایی آنها در گرفتن جزئیات با فرکانس بالا می شود.برای غلبه بر این محدودیت ها ، ما یک رویکرد جدید را پیشنهاد می کنیم که از یادگیری پراکنده در حوزه فوریه استفاده می کند.روش ما مقیاس بندی کارآمد هسته های مداوم را امکان پذیر می کند ، نیازهای محاسباتی و حافظه را به شدت کاهش می دهد و با بهره برداری از پدیده گیبس ، تعصب طیفی را کاهش می دهد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.