| عنوان مقاله به انگلیسی | Sampling Foundational Transformer: A Theoretical Perspective |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله نمونهبرداری از ترانسفورماتور بنیادی: یک دیدگاه نظری |
| نویسندگان | Viet Anh Nguyen, Minh Lenhat, Khoa Nguyen, Duong Duc Hieu, Dao Huu Hung, Truong Son Hy |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 43 |
| دسته بندی موضوعات | Machine Learning,Computer Vision and Pattern Recognition,یادگیری ماشین , دید رایانه و تشخیص الگوی , |
| توضیحات | Submitted 17 August, 2024; v1 submitted 11 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده 17 اوت 2024 ؛V1 ارسال شده 11 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,720,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
The versatility of self-attention mechanism earned transformers great success in almost all data modalities, with limitations on the quadratic complexity and difficulty of training. To apply transformers across different data modalities, practitioners have to make specific clever data-modality-dependent constructions. In this paper, we propose Sampling Foundational Transformer (SFT) that can work on multiple data modalities (e.g., point cloud, graph, and sequence) and constraints (e.g., rotational-invariant). The existence of such model is important as contemporary foundational modeling requires operability on multiple data sources. For efficiency on large number of tokens, our model relies on our context aware sampling-without-replacement mechanism for both linear asymptotic computational complexity and real inference time gain. For efficiency, we rely on our newly discovered pseudoconvex formulation of transformer layer to increase model’s convergence rate. As a model working on multiple data modalities, SFT has achieved competitive results on many benchmarks, while being faster in inference, compared to other very specialized models.
چکیده به فارسی (ترجمه ماشینی)
تطبیق پذیری مکانیسم خودآگاهی تقریباً در تمام روشهای داده ، با محدودیت در پیچیدگی و دشواری درجه دوم ، موفقیت بزرگی را در همه روشهای داده به دست آورد.برای اعمال ترانسفورماتورها در روشهای مختلف داده ، پزشکان مجبورند سازه های وابسته به داده های هوشمندانه خاص را بسازند.در این مقاله ، ما نمونه گیری از ترانسفورماتور بنیادی (SFT) را پیشنهاد می کنیم که می تواند بر روی چندین روش داده (به عنوان مثال ، ابر نقطه ، نمودار و دنباله) و محدودیت ها (به عنوان مثال ، چرخش-متغیر) کار کند.وجود چنین مدل از اهمیت زیادی برخوردار است زیرا مدل سازی بنیادی معاصر نیاز به عملکرد بر روی منابع مختلف داده دارد.برای بهره وری در تعداد زیادی از نشانه ها ، مدل ما به مکانیسم آگاهانه-با استفاده از مکانیزم جایگزین برای هر دو پیچیدگی محاسباتی بدون علامت خطی و افزایش زمان استنباط واقعی متکی است.برای کارآیی ، ما برای افزایش میزان همگرایی مدل به فرمولاسیون جدید Pseudoconvex از لایه ترانسفورماتور تکیه می کنیم.به عنوان مدلی که روی چندین روش داده کار می کند ، SFT در بسیاری از معیارها به نتایج رقابتی رسیده است ، در حالی که سریعتر در استنتاج قرار دارد ، در مقایسه با سایر مدلهای بسیار تخصصی.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.