| عنوان مقاله به انگلیسی | Toward Attention-based TinyML: A Heterogeneous Accelerated Architecture and Automated Deployment Flow |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله به سوی TinyML مبتنی بر توجه: یک معماری ناهمگن شتابیافته و جریان استقرار خودکار |
| نویسندگان | Philip Wiese, Gamze İslamoğlu, Moritz Scherer, Luka Macan, Victor J. B. Jung, Alessio Burrello, Francesco Conti, Luca Benini |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 7 |
| دسته بندی موضوعات | Hardware Architecture,Machine Learning,معماری سخت افزار , یادگیری ماشین , |
| توضیحات | Submitted 5 August, 2024; originally announced August 2024. , Comments: Pre-print manuscript submitted for review to the IEEE Design and Test Special Issue on tinyML |
| توضیحات به فارسی | ارسال شده در 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: نسخه خطی قبل از چاپ برای بررسی به طراحی IEEE ارسال شده و شماره ویژه را در TINYML ارسال می کند |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 280,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
One of the challenges for Tiny Machine Learning (tinyML) is keeping up with the evolution of Machine Learning models from Convolutional Neural Networks to Transformers. We address this by leveraging a heterogeneous architectural template coupling RISC-V processors with hardwired accelerators supported by an automated deployment flow. We demonstrate an Attention-based model in a tinyML power envelope with an octa-core cluster coupled with an accelerator for quantized Attention. Our deployment flow enables an end-to-end 8-bit MobileBERT, achieving leading-edge energy efficiency and throughput of 2960 GOp/J and 154 GOp/s at 32.5 Inf/s consuming 52.0 mW (0.65 V, 22 nm FD-SOI technology).
چکیده به فارسی (ترجمه ماشینی)
یکی از چالش های یادگیری ماشین کوچک (TINYML) ، همراه با تکامل مدل های یادگیری ماشین از شبکه های عصبی حلقوی تا ترانسفورماتورها است.ما این مسئله را با استفاده از یک الگوی معماری ناهمگن اتصال پردازنده های RISC-V با شتاب دهنده های سخت پشتیبانی شده توسط یک جریان استقرار خودکار ، مورد بررسی قرار می دهیم.ما یک مدل مبتنی بر توجه را در یک پاکت قدرت tinyml با یک خوشه اکتا هسته همراه با یک شتاب دهنده برای توجه کمی نشان می دهیم.جریان استقرار ما یک موبایل 8 بیتی پایان به پایان را امکان پذیر می کند ، و به بهره وری انرژی پیشرو و توان 2960 GOP/J و 154 GOP/S در 32.5 Inf/S مصرف 52.0 مگاوات (0.65 ولت ، 22 نانومتر FD-SOI می رسد.فناوری).
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.