,

ترجمه فارسی مقاله ترانسفورماتورها یادگیرندگان جهانی در متن هستند

19,000 تومان640,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Transformers are Universal In-context Learners
عنوان مقاله به فارسی ترجمه فارسی مقاله ترانسفورماتورها یادگیرندگان جهانی در متن هستند
نویسندگان Takashi Furuya, Maarten V. de Hoop, Gabriel Peyré
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 16
دسته بندی موضوعات Computation and Language,Machine Learning,محاسبه و زبان , یادگیری ماشین ,
توضیحات Submitted 2 August, 2024; originally announced August 2024. , Comments: 16 pages
توضیحات به فارسی ارسال شده در 2 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: 16 صفحه

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 99,000 تومان

سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 640,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Transformers are deep architectures that define “in-context mappings” which enable predicting new tokens based on a given set of tokens (such as a prompt in NLP applications or a set of patches for vision transformers). This work studies in particular the ability of these architectures to handle an arbitrarily large number of context tokens. To mathematically and uniformly address the expressivity of these architectures, we consider the case that the mappings are conditioned on a context represented by a probability distribution of tokens (discrete for a finite number of tokens). The related notion of smoothness corresponds to continuity in terms of the Wasserstein distance between these contexts. We demonstrate that deep transformers are universal and can approximate continuous in-context mappings to arbitrary precision, uniformly over compact token domains. A key aspect of our results, compared to existing findings, is that for a fixed precision, a single transformer can operate on an arbitrary (even infinite) number of tokens. Additionally, it operates with a fixed embedding dimension of tokens (this dimension does not increase with precision) and a fixed number of heads (proportional to the dimension). The use of MLP layers between multi-head attention layers is also explicitly controlled.

چکیده به فارسی (ترجمه ماشینی)

ترانسفورماتورها معماری های عمیقی هستند که “نگاشتهای درون متن” را تعریف می کنند که پیش بینی نشانه های جدید را بر اساس مجموعه مشخصی از نشانه ها (مانند سریع در برنامه های NLP یا مجموعه ای از تکه ها برای ترانسفورماتورهای بینایی) امکان پذیر می کند.این کار به ویژه توانایی این معماری ها برای رسیدگی به تعداد زیادی از نشانه های متن را بررسی می کند.برای پرداختن به ریاضی و یکنواخت به بیان این معماری ها ، ما این مورد را در نظر می گیریم که نقشه ها بر روی زمینه ای که توسط توزیع احتمال توکن ها نشان داده شده است (گسسته برای تعداد محدودی از نشانه ها) است.مفهوم مربوط به صافی از نظر فاصله Wasserstein بین این زمینه ها با استمرار مطابقت دارد.ما نشان می دهیم که ترانسفورماتورهای عمیق جهانی هستند و می توانند نقشه برداری مداوم در داخل را به دقت خودسرانه ، به طور یکنواخت بر دامنه های توکن جمع و جور تقریب دهند.جنبه اصلی نتایج ما ، در مقایسه با یافته های موجود ، این است که برای دقت ثابت ، یک ترانسفورماتور واحد می تواند بر روی تعداد خودسرانه (حتی بی نهایت) توکن کار کند.علاوه بر این ، با یک بعد تعبیه شده ثابت نشانه ها (این بعد با دقت افزایش نمی یابد) و تعداد مشخصی از سرها (متناسب با بعد) عمل می کند.استفاده از لایه های MLP بین لایه های توجه چند سر نیز به صراحت کنترل می شود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله ترانسفورماتورها یادگیرندگان جهانی در متن هستند”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا