ترجمه فارسی مقاله ELSA: بهره‌برداری لایه‌ای از پراکندگی N:M برای شتاب ترانسفورماتور بینایی

340,000 تومان

عنوان مقاله به انگلیسی ELSA: Exploiting Layer-wise N:M Sparsity for Vision Transformer Acceleration
عنوان مقاله به فارسی ترجمه فارسی مقاله ELSA: بهره‌برداری لایه‌ای از پراکندگی N:M برای شتاب ترانسفورماتور بینایی
نویسندگان Ning-Chi Huang, Chi-Chih Chang, Wei-Cheng Lin, Endri Taka, Diana Marculescu, Kai-Chiang Wu
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 17
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Computer Vision and Pattern Recognition,Machine Learning,چشم انداز رایانه و تشخیص الگوی , یادگیری ماشین ,
توضیحات Submitted 15 September, 2024; originally announced September 2024.
توضیحات به فارسی ارسال شده در 15 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

$N{:}M$ sparsity is an emerging model compression method supported by more and more accelerators to speed up sparse matrix multiplication in deep neural networks. Most existing $N{:}M$ sparsity methods compress neural networks with a uniform setting for all layers in a network or heuristically determine the layer-wise configuration by considering the number of parameters in each layer. However, very few methods have been designed for obtaining a layer-wise customized $N{:}M$ sparse configuration for vision transformers (ViTs), which usually consist of transformer blocks involving the same number of parameters. In this work, to address the challenge of selecting suitable sparse configuration for ViTs on $N{:}M$ sparsity-supporting accelerators, we propose ELSA, Exploiting Layer-wise $N{:}M$ Sparsity for ViTs. Considering not only all $N{:}M$ sparsity levels supported by a given accelerator but also the expected throughput improvement, our methodology can reap the benefits of accelerators supporting mixed sparsity by trading off negligible accuracy loss with both memory usage and inference time reduction for ViT models. For instance, our approach achieves a noteworthy 2.9$\times$ reduction in FLOPs for both Swin-B and DeiT-B with only a marginal degradation of accuracy on ImageNet. Our code will be released upon paper acceptance.

چکیده به فارسی (ترجمه ماشینی)

$ n {:} m $ sparsity یک روش فشرده سازی مدل در حال ظهور است که توسط شتاب دهنده های بیشتر و بیشتر پشتیبانی می شود تا سرعت بخشیدن به ضرب ماتریس پراکنده در شبکه های عصبی عمیق.بیشتر $ n {:} m $ روش های کمپرسی شبکه های عصبی را با یک تنظیم یکنواخت برای همه لایه ها در یک شبکه فشرده می کنند یا با توجه به تعداد پارامترهای موجود در هر لایه ، پیکربندی لایه را تعیین می کنند.با این حال ، روشهای بسیار کمی برای به دست آوردن یک لایه $ n {$ سفارشی طراحی شده است:} m $ پیکربندی پراکنده برای ترانسفورماتورهای بینایی (VITS) ، که معمولاً از بلوک های ترانسفورماتور تشکیل شده است که شامل همان تعداد پارامترها هستند.در این کار ، برای پرداختن به چالش انتخاب پیکربندی پراکنده مناسب برای VITS در $ n {:} m $ شتاب دهنده های پشتیبانی کننده از اسپری ، ما ELSA را پیشنهاد می کنیم ، و از لایه $ n {:} m $ sparsity برای Vits استفاده می کنیم.با توجه به نه تنها $ n {:} m $ سطح کمتری که توسط یک شتاب دهنده معین پشتیبانی می شود بلکه بهبود توان مورد انتظار است ، روش ما می تواند با معامله از دست دادن دقت ناچیز با استفاده از حافظه و کاهش زمان استنباط ، مزایای شتاب دهنده های پشتیبانی کننده از کمبود ناچیز را به دست آورد.برای مدل های VIT.به عنوان مثال ، رویکرد ما به یک کاهش قابل توجه 2.9 $ \ $ $ در فلاپ ها برای هر دو SWIN-B و DEIT-B با تنها تخریب حاشیه ای از دقت در Imagenet دست پیدا می کند.کد ما پس از پذیرش کاغذ منتشر می شود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله ELSA: بهره‌برداری لایه‌ای از پراکندگی N:M برای شتاب ترانسفورماتور بینایی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا