,

ترجمه فارسی مقاله ترانسفورماتور دوسطحی فضایی و آگاه از کانال برای فشرده‌سازی تصویر آموخته‌شده

19,000 تومان280,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Bi-Level Spatial and Channel-aware Transformer for Learned Image Compression
عنوان مقاله به فارسی ترجمه فارسی مقاله ترانسفورماتور دوسطحی فضایی و آگاه از کانال برای فشرده‌سازی تصویر آموخته‌شده
نویسندگان Hamidreza Soltani, Erfan Ghasemi
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 7
دسته بندی موضوعات Computer Vision and Pattern Recognition,Information Theory,Machine Learning,چشم انداز رایانه و تشخیص الگوی , تئوری اطلاعات , یادگیری ماشین ,
توضیحات Submitted 7 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 280,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Recent advancements in learned image compression (LIC) methods have demonstrated superior performance over traditional hand-crafted codecs. These learning-based methods often employ convolutional neural networks (CNNs) or Transformer-based architectures. However, these nonlinear approaches frequently overlook the frequency characteristics of images, which limits their compression efficiency. To address this issue, we propose a novel Transformer-based image compression method that enhances the transformation stage by considering frequency components within the feature map. Our method integrates a novel Hybrid Spatial-Channel Attention Transformer Block (HSCATB), where a spatial-based branch independently handles high and low frequencies at the attention layer, and a Channel-aware Self-Attention (CaSA) module captures information across channels, significantly improving compression performance. Additionally, we introduce a Mixed Local-Global Feed Forward Network (MLGFFN) within the Transformer block to enhance the extraction of diverse and rich information, which is crucial for effective compression. These innovations collectively improve the transformation’s ability to project data into a more decorrelated latent space, thereby boosting overall compression efficiency. Experimental results demonstrate that our framework surpasses state-of-the-art LIC methods in rate-distortion performance.

چکیده به فارسی (ترجمه ماشینی)

پیشرفت های اخیر در روش های فشرده سازی تصویر آموخته شده (LIC) عملکرد برتر را نسبت به کدک های سنتی دست ساز نشان داده است.این روشهای مبتنی بر یادگیری اغلب از شبکه های عصبی حلقوی (CNN) یا معماری های مبتنی بر ترانسفورماتور استفاده می کنند.با این حال ، این رویکردهای غیرخطی غالباً از ویژگی های فرکانس تصاویر غافل می شوند ، که باعث می شود راندمان فشرده سازی آنها محدود شود.برای پرداختن به این مسئله ، ما یک روش فشرده سازی تصویر مبتنی بر ترانسفورماتور را پیشنهاد می کنیم که با در نظر گرفتن اجزای فرکانس در نقشه ویژگی ، مرحله تحول را تقویت می کند.روش ما یک بلوک ترانسفورماتور توجه کانال مکانی جدید هیبریدی (HSCATB) را ادغام می کند ، جایی که یک شاخه مبتنی بر مکانی به طور مستقل از فرکانس های بالا و پایین در لایه توجه برخوردار است ، و ماژول خود با توجه به کانال (CASA) اطلاعات را در سراسر کانال ها ضبط می کند.به طور قابل توجهی عملکرد فشرده سازی را بهبود می بخشد.علاوه بر این ، ما یک شبکه رو به جلو Global Feed Global (MLGFFN) را در بلوک ترانسفورماتور معرفی می کنیم تا استخراج اطلاعات متنوع و غنی را تقویت کنیم ، که برای فشرده سازی مؤثر بسیار مهم است.این نوآوری ها به طور جمعی توانایی تحول را در طراحی داده ها به یک فضای نهفته دفع شده تر بهبود می بخشد و از این طریق باعث افزایش کارایی فشرده سازی کلی می شود.نتایج تجربی نشان می دهد که چارچوب ما از روشهای پیشرفته LIC در عملکرد تحریف نرخ فراتر می رود.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله ترانسفورماتور دوسطحی فضایی و آگاه از کانال برای فشرده‌سازی تصویر آموخته‌شده”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا