,

مقاله وضوح تصویر فوق العاده کارآمد از طریق شبکه توجه بصری متقارن

10,000 تومان

عنوان مقاله به انگلیسی Efficient Image Super-Resolution via Symmetric Visual Attention Network
عنوان مقاله به فارسی مقاله تصویر فوق العاده با وضوح تصویر از طریق شبکه توجه بصری متقارن
نویسندگان Chengxu Wu, Qinrui Fan, Shu Hu, Xi Wu, Xin Wang, Jing Hu
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 13
دسته بندی موضوعات Computer Vision and Pattern Recognition,Image and Video Processing,چشم انداز رایانه و تشخیص الگوی , پردازش تصویر و فیلم ,
توضیحات Submitted 16 January, 2024; originally announced January 2024. , Comments: 13 pages,4 figures
توضیحات به فارسی 16 ژانویه 2024 ارسال شد.در ابتدا ژانویه 2024 اعلام شد ، نظرات: 13 صفحه ، 4 شکل

چکیده

An important development direction in the Single-Image Super-Resolution (SISR) algorithms is to improve the efficiency of the algorithms. Recently, efficient Super-Resolution (SR) research focuses on reducing model complexity and improving efficiency through improved deep small kernel convolution, leading to a small receptive field. The large receptive field obtained by large kernel convolution can significantly improve image quality, but the computational cost is too high. To improve the reconstruction details of efficient super-resolution reconstruction, we propose a Symmetric Visual Attention Network (SVAN) by applying large receptive fields. The SVAN decomposes a large kernel convolution into three different combinations of convolution operations and combines them with an attention mechanism to form a Symmetric Large Kernel Attention Block (SLKAB), which forms a symmetric attention block with a bottleneck structure by the size of the receptive field in the convolution combination to extract depth features effectively as the basic component of the SVAN. Our network gets a large receptive field while minimizing the number of parameters and improving the perceptual ability of the model. The experimental results show that the proposed SVAN can obtain high-quality super-resolution reconstruction results using only about 30% of the parameters of existing SOTA methods.

چکیده به فارسی (ترجمه ماشینی)

یک جهت توسعه مهم در الگوریتم های تک تصویر فوق العاده با وضوح (SISR) بهبود کارایی الگوریتم ها است.به تازگی ، تحقیقات کارآمد با وضوح فوق العاده (SR) بر کاهش پیچیدگی مدل و بهبود کارآیی از طریق بهبود یافته عمیق هسته کوچک ، تمرکز دارد و منجر به یک میدان گیرنده کوچک می شود.میدان پذیرنده بزرگ به دست آمده توسط حلقوی هسته بزرگ می تواند به طور قابل توجهی کیفیت تصویر را بهبود بخشد ، اما هزینه محاسباتی خیلی زیاد است.برای بهبود جزئیات بازسازی بازسازی کارآمد با وضوح فوق العاده ، ما یک شبکه توجه بصری متقارن (SVAN) را با استفاده از زمینه های پذیرنده بزرگ پیشنهاد می کنیم.SVAN یک ترکیب هسته بزرگ را به سه ترکیب مختلف از عملیات حلقوی تجزیه می کند و آنها را با مکانیسم توجه ترکیب می کند تا یک بلوک توجه هسته بزرگ متقارن (SLKAB) را تشکیل دهد ، که یک بلوک توجه متقارن با یک ساختار تنگنا با اندازه میدان گیرنده تشکیل می دهددر ترکیب Convolution برای استخراج ویژگی های عمق به طور مؤثر به عنوان مؤلفه اصلی SVAN.شبکه ما ضمن به حداقل رساندن تعداد پارامترها و بهبود توانایی ادراکی مدل ، یک میدان پذیرش بزرگ را بدست می آورد.نتایج تجربی نشان می دهد که SVAN پیشنهادی می تواند با استفاده از تنها حدود 30 ٪ از پارامترهای روشهای SOTA موجود ، نتایج بازسازی فوق العاده با کیفیت بالا را بدست آورد.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله وضوح تصویر فوق العاده کارآمد از طریق شبکه توجه بصری متقارن”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا