,

مقاله استخراج دانش ترانسفورماتور کارآمد: بررسی عملکرد

10,000 تومان

عنوان مقاله به انگلیسی Efficient Transformer Knowledge Distillation: A Performance Review
عنوان مقاله به فارسی مقاله استخراج دانش ترانسفورماتور کارآمد: بررسی عملکرد
نویسندگان Nathan Brown, Ashton Williamson, Tahj Anderson, Logan Lawrence
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 0
دسته بندی موضوعات Computation and Language,Machine Learning,محاسبه و زبان , یادگیری ماشین ,
توضیحات Submitted 22 November, 2023; originally announced November 2023. , Comments: Accepted to EMNLP 2023. 12 pages, 1 figure, 11 tables. Models and data available at https://huggingface.co/giant-oak
توضیحات به فارسی ارسال شده 22 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد ، نظرات: پذیرفته شده در EMNLP 2023. 12 صفحه ، 1 شکل ، 11 جدول.مدل ها و داده های موجود در https://huggingface.co/giant-oak

چکیده

As pretrained transformer language models continue to achieve state-of-the-art performance, the Natural Language Processing community has pushed for advances in model compression and efficient attention mechanisms to address high computational requirements and limited input sequence length. Despite these separate efforts, no investigation has been done into the intersection of these two fields. In this work, we provide an evaluation of model compression via knowledge distillation on efficient attention transformers. We provide cost-performance trade-offs for the compression of state-of-the-art efficient attention architectures and the gains made in performance in comparison to their full attention counterparts. Furthermore, we introduce a new long-context Named Entity Recognition dataset, GONERD, to train and test the performance of NER models on long sequences. We find that distilled efficient attention transformers can preserve a significant amount of original model performance, preserving up to 98.6% across short-context tasks (GLUE, SQUAD, CoNLL-2003), up to 94.6% across long-context Question-and-Answering tasks (HotpotQA, TriviaQA), and up to 98.8% on long-context Named Entity Recognition (GONERD), while decreasing inference times by up to 57.8%. We find that, for most models on most tasks, performing knowledge distillation is an effective method to yield high-performing efficient attention models with low costs.

چکیده به فارسی (ترجمه ماشینی)

از آنجا که مدل های زبان ترانسفورماتور پیش ساخته به عملکرد پیشرفته ترین هنر ادامه می دهند ، جامعه پردازش زبان طبیعی به پیشرفت در فشرده سازی مدل و مکانیسم های توجه کارآمد برای پرداختن به نیازهای محاسباتی بالا و طول توالی ورودی محدود فشار آورده است.با وجود این تلاش های جداگانه ، هیچ تحقیقاتی در مورد تقاطع این دو زمینه انجام نشده است.در این کار ، ما ارزیابی فشرده سازی مدل را از طریق تقطیر دانش در ترانسفورماتورهای توجه کارآمد ارائه می دهیم.ما برای فشرده سازی معماری های توجه کارآمد و کارآمد و دستاوردهای حاصل از عملکرد در مقایسه با همتایان توجه کامل آنها ، معاملات مقرون به صرفه را ارائه می دهیم.علاوه بر این ، ما یک مجموعه جدید با نام طولانی به نام Entity Residition ، Gonerd را معرفی می کنیم تا عملکرد مدل های NER را در توالی های طولانی آموزش و آزمایش کنیم.ما می دانیم که ترانسفورماتورهای توجه کارآمد مقطر می توانند مقدار قابل توجهی از عملکرد مدل اصلی را حفظ کنند ، تا 98.6 ٪ را در کارهای کوتاه با متن حفظ کنند (چسب ، تیم ، CONLL-2003) ، تا 94.6 ٪ در مورد پرسش و پاسخ با متن طولانیوظایف (HotPotqa ، Triviaqa) و حداکثر 98.8 ٪ در متن طولانی به نام Entity Decentition (GONERD) ، در حالی که زمان استنباط را تا 57.8 ٪ کاهش می دهد.ما می دانیم که ، برای اکثر مدلها در بیشتر کارها ، انجام تقطیر دانش روشی مؤثر برای ارائه مدلهای توجه کارآمد با عملکرد بالا با هزینه های کم است.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله استخراج دانش ترانسفورماتور کارآمد: بررسی عملکرد”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا