,

ترجمه فارسی مقاله به سوی TinyML مبتنی بر توجه: یک معماری ناهمگن شتاب‌یافته و جریان استقرار خودکار

19,000 تومان280,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Toward Attention-based TinyML: A Heterogeneous Accelerated Architecture and Automated Deployment Flow
عنوان مقاله به فارسی ترجمه فارسی مقاله به سوی TinyML مبتنی بر توجه: یک معماری ناهمگن شتاب‌یافته و جریان استقرار خودکار
نویسندگان Philip Wiese, Gamze İslamoğlu, Moritz Scherer, Luka Macan, Victor J. B. Jung, Alessio Burrello, Francesco Conti, Luca Benini
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 7
دسته بندی موضوعات Hardware Architecture,Machine Learning,معماری سخت افزار , یادگیری ماشین ,
توضیحات Submitted 5 August, 2024; originally announced August 2024. , Comments: Pre-print manuscript submitted for review to the IEEE Design and Test Special Issue on tinyML
توضیحات به فارسی ارسال شده در 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: نسخه خطی قبل از چاپ برای بررسی به طراحی IEEE ارسال شده و شماره ویژه را در TINYML ارسال می کند

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 280,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

One of the challenges for Tiny Machine Learning (tinyML) is keeping up with the evolution of Machine Learning models from Convolutional Neural Networks to Transformers. We address this by leveraging a heterogeneous architectural template coupling RISC-V processors with hardwired accelerators supported by an automated deployment flow. We demonstrate an Attention-based model in a tinyML power envelope with an octa-core cluster coupled with an accelerator for quantized Attention. Our deployment flow enables an end-to-end 8-bit MobileBERT, achieving leading-edge energy efficiency and throughput of 2960 GOp/J and 154 GOp/s at 32.5 Inf/s consuming 52.0 mW (0.65 V, 22 nm FD-SOI technology).

چکیده به فارسی (ترجمه ماشینی)

یکی از چالش های یادگیری ماشین کوچک (TINYML) ، همراه با تکامل مدل های یادگیری ماشین از شبکه های عصبی حلقوی تا ترانسفورماتورها است.ما این مسئله را با استفاده از یک الگوی معماری ناهمگن اتصال پردازنده های RISC-V با شتاب دهنده های سخت پشتیبانی شده توسط یک جریان استقرار خودکار ، مورد بررسی قرار می دهیم.ما یک مدل مبتنی بر توجه را در یک پاکت قدرت tinyml با یک خوشه اکتا هسته همراه با یک شتاب دهنده برای توجه کمی نشان می دهیم.جریان استقرار ما یک موبایل 8 بیتی پایان به پایان را امکان پذیر می کند ، و به بهره وری انرژی پیشرو و توان 2960 GOP/J و 154 GOP/S در 32.5 Inf/S مصرف 52.0 مگاوات (0.65 ولت ، 22 نانومتر FD-SOI می رسد.فناوری).

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله به سوی TinyML مبتنی بر توجه: یک معماری ناهمگن شتاب‌یافته و جریان استقرار خودکار”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا