,

مقاله مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها
نویسندگان Gokul Karthik Kumar, Sahal Shaji Mullappilly, Abhishek Singh Gehlot
دسته‌بندی علمی Computer Vision and Pattern Recognition,Artificial Intelligence,Machine Learning

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها

معرفی مقاله و اهمیت آن

در سال‌های اخیر، پیشرفت‌های چشمگیری در حوزه هوش مصنوعی، به ویژه در یادگیری عمیق، به وقوع پیوسته است. یکی از مهم‌ترین دستاوردهای این دوره، ظهور مدل‌های ترانسفورمر (Transformer) بوده که ابتدا در پردازش زبان طبیعی (NLP) انقلابی به پا کرد و سپس به حوزه بینایی کامپیوتر (Computer Vision) راه یافت. همزمان، رویکردهای یادگیری خودنظارتی (Self-supervised Learning – SSL) نیز به عنوان یک پارادایم قدرتمند برای پیش‌آموزش مدل‌ها بدون نیاز به حجم عظیمی از داده‌های برچسب‌گذاری شده، توجه بسیاری را به خود جلب کرده‌اند.

مقاله حاضر با عنوان “مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها” به بررسی دقیق و تجربی نحوه کاربرد این رویکردهای یادگیری خودنظارتی در مدل‌های ترانسفورمر برای وظیفه تشخیص اشیاء (Object Detection) می‌پردازد. اهمیت این تحقیق در آن است که مدل‌های تشخیص اشیاء مبتنی بر ترانسفورمر مانند DETR (DEtection TRansformer) و Deformable DETR، ورودی خود را نه از فضای پیکسل تصویر خام، بلکه از فضای ویژگی‌های استخراج شده توسط شبکه‌های عصبی پیچشی (CNN) دریافت می‌کنند. این تفاوت در ورودی، چالش‌های منحصربه‌فردی را برای اعمال مستقیم روش‌های SSL رایج که معمولاً برای فضای تصویری طراحی شده‌اند، ایجاد می‌کند. این مقاله تلاش می‌کند تا با تطبیق روش‌های SSL برای فضای ویژگی‌های CNN، راهکارهایی برای بهبود کارایی و سرعت همگرایی این مدل‌ها ارائه دهد. دستیابی به این هدف می‌تواند به معنای آموزش مدل‌های قوی‌تر تشخیص اشیاء با داده‌های کمتر برچسب‌گذاری شده و منابع محاسباتی بهینه‌تر باشد، که خود گام بزرگی در توسعه کاربردهای عملی بینایی ماشین محسوب می‌شود.

نویسندگان و زمینه تحقیق

این مطالعه توسط گوکول کارتیک کومار (Gokul Karthik Kumar)، ساهال شاجی مولاپلی (Sahal Shaji Mullappilly) و آبیشک سینگ گهلوت (Abhishek Singh Gehlot) انجام شده است. این نویسندگان، متخصصانی در حوزه‌های بینایی کامپیوتر و تشخیص الگو، هوش مصنوعی و یادگیری ماشین هستند که بر پیچیدگی‌های تعامل میان معماری‌های پیشرفته و روش‌های یادگیری نوین تمرکز دارند.

زمینه تحقیق این مقاله در تقاطع سه حوزه حیاتی قرار دارد: مدل‌های ترانسفورمر، یادگیری خودنظارتی و تشخیص اشیاء. مدل‌های ترانسفورمر، به واسطه مکانیسم توجه (Attention Mechanism) خود، قابلیت مدل‌سازی وابستگی‌های بلندمدت در داده‌ها را دارند که در وظایف پیچیده‌ای مانند پردازش تصاویر بسیار کارآمد است. با این حال، ترانسفورمرها معمولاً به حجم زیادی از داده‌های برچسب‌گذاری شده نیاز دارند که جمع‌آوری آن پرهزینه و زمان‌بر است. اینجاست که یادگیری خودنظارتی وارد عمل می‌شود؛ این رویکرد به مدل‌ها اجازه می‌دهد تا با استفاده از داده‌های بدون برچسب و با تعریف یک وظیفه پیش‌بینی جانبی (Pretext Task)، ویژگی‌های مفید را از خود داده‌ها بیاموزند. نمونه‌های موفق آن در NLP شامل مدل‌سازی زبان پوشانده شده (Masked Language Modeling) و در بینایی کامپیوتر، مدل‌سازی تصویر پوشانده شده (Masked Image Modeling) است.

چالش اصلی در این تحقیق، پیاده‌سازی SSL برای معماری‌های ترانسفورمر تشخیص اشیاء (مانند DETR) است. برخلاف Vision Transformerهای عمومی که ورودی خود را مستقیماً از تصاویر پیکسل به پیکسل دریافت می‌کنند، DETR و نسخه‌های بعدی آن مانند Deformable DETR، بر روی نقشه‌های ویژگی (Feature Maps) استخراج شده توسط شبکه‌های عصبی پیچشی (CNN) عمل می‌کنند. این نقشه‌های ویژگی، نمایش‌های فشرده‌تر و معنایی‌تری از تصویر هستند که اگرچه روابط فضایی را حفظ می‌کنند، اما ماهیت متفاوتی نسبت به پیکسل‌های خام دارند. تحقیق حاضر به دنبال پر کردن این شکاف با طراحی رویکردهای SSL است که بتوانند از این خاصیت فضایی در نقشه‌های ویژگی برای آموزش مؤثرتر و کارآمدتر این ترانسفورمرهای تشخیص اشیاء بهره ببرند.

چکیده و خلاصه محتوا

چکیده مقاله به طور فشرده به بیان مسئله، روش‌های به کار گرفته شده و یافته‌های اولیه می‌پردازد. در ابتدا، به این نکته اشاره می‌شود که روش‌های یادگیری خودنظارتی (SSL) مانند مدل‌سازی زبان پوشانده شده (masked language modeling)، با پیش‌آموزش مدل‌های ترانسفورمر، افزایش عملکرد چشمگیری را در وظایف پردازش زبان طبیعی به ارمغان آورده‌اند. تحقیقات بعدی، روش‌های مشابهی مانند مدل‌سازی تصویر پوشانده شده (masked image modeling) را در ترانسفورمرهای بینایی به کار برده و بهبودهایی را در وظیفه طبقه‌بندی تصویر نشان داده‌اند.

با این حال، نویسندگان بیان می‌کنند که این روش‌های ساده خودنظارتی به طور جامع برای ترانسفورمرهای تشخیص اشیاء (Object Detection Transformers) مانند DETR و Deformable DETR مورد مطالعه قرار نگرفته‌اند. دلیل این امر، تفاوت در نحوه دریافت ورودی توسط ماژول‌های کدگذار (encoder) ترانسفورمر در این مدل‌ها است: آنها ورودی خود را در فضای ویژگی‌های استخراج شده توسط شبکه عصبی پیچشی (CNN) می‌گیرند، نه در فضای تصویر خام که در ترانسفورمرهای بینایی عمومی رایج است.

علی‌رغم این تفاوت، نقشه‌های ویژگی CNN همچنان رابطه فضایی (spatial relationship) را حفظ می‌کنند. نویسندگان از این ویژگی بهره می‌برند تا رویکردهای یادگیری خودنظارتی را برای آموزش کدگذار ترانسفورمرهای تشخیص اشیاء، هم در محیط پیش‌آموزش (pretraining) و هم در محیط یادگیری چندوظیفه‌ای (multi-task learning)، طراحی کنند. آنها سه روش رایج خودنظارتی را بررسی می‌کنند: بازسازی تصویر (image reconstruction)، مدل‌سازی تصویر پوشانده شده (masked image modeling) و پازل اره‌مویی (jigsaw).

نتایج آزمایشات اولیه بر روی مجموعه داده iSAID نشان می‌دهد که DETR در اپوک‌های اولیه، هم در حالت پیش‌آموزش و هم در حالت یادگیری چندوظیفه‌ای، همگرایی سریع‌تری از خود نشان می‌دهد. با این حال، بهبود مشابهی در مورد یادگیری چندوظیفه‌ای با Deformable DETR مشاهده نشده است. کد مربوط به این آزمایشات برای DETR و Deformable DETR نیز در گیت‌هاب برای استفاده جامعه علمی موجود است.

به طور خلاصه، این مقاله به دنبال یافتن راه‌هایی برای استفاده از قدرت SSL در مدل‌های تشخیص اشیاء مبتنی بر ترانسفورمر است که بر روی ویژگی‌های CNN کار می‌کنند، و نتایج امیدوارکننده‌ای را برای DETR، اما نه برای Deformable DETR در همه سناریوها، نشان می‌دهد.

روش‌شناسی تحقیق

روش‌شناسی تحقیق بر پایه تطبیق روش‌های رایج یادگیری خودنظارتی (SSL) با ماهیت ورودی ترانسفورمرهای تشخیص اشیاء (DETR و Deformable DETR) بنا شده است. از آنجایی که کدگذار این ترانسفورمرها به جای پیکسل‌های تصویر خام، نقشه‌های ویژگی استخراج شده توسط CNN را به عنوان ورودی دریافت می‌کند، چالش اصلی در چگونگی اعمال وظایف پیش‌بینی جانبی SSL بر روی این فضای ویژگی بود. نویسندگان با هوشمندی از این واقعیت استفاده کردند که نقشه‌های ویژگی CNN، با وجود فشرده‌سازی اطلاعات، همچنان روابط فضایی موجود در تصویر اصلی را حفظ می‌کنند.

سه رویکرد اصلی SSL که در این تحقیق مورد بررسی قرار گرفته‌اند، عبارتند از:

  • مدل‌سازی ویژگی‌های پوشانده شده (Masked Feature Modeling – MFM): این روش الهام گرفته از مدل‌سازی زبان پوشانده شده در NLP و مدل‌سازی تصویر پوشانده شده در بینایی کامپیوتر است. به جای پوشاندن کلمات یا نواحی پیکسلی، بخش‌هایی از نقشه‌های ویژگی CNN به طور تصادفی پوشانده می‌شوند (ماسک می‌شوند). سپس مدل ترانسفورمر آموزش داده می‌شود تا مقادیر ویژگی‌های اصلی را برای این بخش‌های پوشانده شده پیش‌بینی کند. این کار به مدل کمک می‌کند تا نمایش‌های غنی و بافت‌محور از ویژگی‌های فضایی را بیاموزد.
  • بازسازی ویژگی‌ها (Feature Reconstruction): در این رویکرد، هدف بازسازی کل نقشه ویژگی از یک نسخه ناقص یا دارای نویز آن است. این می‌تواند شامل تخریب عمدی نقشه ویژگی (مانند افزودن نویز یا حذف بخش‌هایی از آن) و سپس آموزش مدل برای تولید نسخه اصلی نقشه ویژگی باشد. این وظیفه مدل را وادار می‌کند تا وابستگی‌های پیچیده درون ویژگی‌ها را برای بازسازی کامل اطلاعات بیاموزد.
  • پازل اره‌مویی برای ویژگی‌ها (Jigsaw for Features): ایده پازل اره‌مویی (Jigsaw) در بینایی کامپیوتر به معنای تقسیم یک تصویر به چند تکه، به هم ریختن ترتیب آنها و سپس آموزش مدل برای بازسازی ترتیب صحیح تکه‌ها است. در این تحقیق، این ایده به فضای ویژگی‌ها تعمیم داده شده است. بخش‌هایی از نقشه ویژگی به هم ریخته می‌شوند و مدل باید ترتیب صحیح آنها را پیش‌بینی کند. این وظیفه مدل را به یادگیری روابط فضایی و بافتی در مقیاس بزرگتر تشویق می‌کند.

این روش‌ها در دو سناریو مختلف ارزیابی شدند:

  1. پیش‌آموزش (Pretraining): در این سناریو، مدل ترانسفورمر کدگذار با استفاده از وظایف خودنظارتی بر روی مجموعه داده‌ای بزرگ و بدون برچسب (یا با برچسب‌های نادیده گرفته شده) آموزش می‌بیند. هدف، یادگیری نمایش‌های عمومی و مفید است که سپس می‌تواند برای وظایف پایین‌دستی مانند تشخیص اشیاء با حجم کمتری از داده‌های برچسب‌گذاری شده تنظیم شود.
  2. یادگیری چندوظیفه‌ای (Multi-task Learning): در این سناریو، وظیفه خودنظارتی به طور همزمان با وظیفه اصلی تشخیص اشیاء آموزش داده می‌شود. این رویکرد به مدل اجازه می‌دهد تا از مزایای SSL برای بهبود یادگیری ویژگی‌ها در حین انجام وظیفه اصلی تشخیص اشیاء بهره‌مند شود.

برای ارزیابی تجربی، از مجموعه داده iSAID استفاده شد. iSAID یک مجموعه داده بزرگ و پیچیده برای تشخیص اشیاء در تصاویر هوایی است که شامل اشیاء با مقیاس‌های بسیار متنوع و تراکم بالا می‌شود. این انتخاب مجموعه داده، اعتبار یافته‌های تحقیق را در سناریوهای واقعی و چالش‌برانگیز افزایش می‌دهد. ارزیابی عملکرد بر اساس سرعت همگرایی (convergence speed) در اپوک‌های اولیه و همچنین معیارهای عملکرد نهایی تشخیص اشیاء صورت گرفت.

یافته‌های کلیدی

نتایج تجربی این مطالعه، نکات مهمی را در مورد اثربخشی رویکردهای یادگیری خودنظارتی (SSL) بر روی ترانسفورمرهای تشخیص اشیاء آشکار می‌سازد. مهم‌ترین یافته‌ها به شرح زیر است:

  • همگرایی سریع‌تر DETR: یکی از دستاوردهای برجسته این تحقیق، مشاهده همگرایی سریع‌تر مدل DETR در اپوک‌های اولیه آموزش بود. این بهبود هم در سناریوی پیش‌آموزش (Pretraining) و هم در سناریوی یادگیری چندوظیفه‌ای (Multi-task Learning) مشاهده شد. همگرایی سریع‌تر به این معنی است که مدل DETR با استفاده از روش‌های SSL پیشنهادی، در زمان کوتاه‌تری به سطوح عملکردی قابل قبولی دست می‌یابد. این امر می‌تواند منجر به کاهش قابل توجهی در زمان و منابع محاسباتی مورد نیاز برای آموزش مدل‌های DETR شود، به خصوص در محیط‌هایی که دسترسی به منابع محدود است یا نیاز به تکرار سریع آزمایش‌ها وجود دارد.
  • عدم بهبود مشابه برای Deformable DETR در یادگیری چندوظیفه‌ای: برخلاف DETR، در مورد مدل Deformable DETR، بهبود مشابهی در سناریوی یادگیری چندوظیفه‌ای مشاهده نشد. این یافته بسیار قابل تأمل است و نشان‌دهنده تفاوت‌های ماهوی در نحوه عملکرد این دو معماری ترانسفورمر تشخیص اشیاء در تعامل با وظایف خودنظارتی است.
    • دلایل احتمالی برای تفاوت: Deformable DETR از یک مکانیسم توجه (Attention Mechanism) تغییر شکل‌پذیر (Deformable Attention) استفاده می‌کند که به جای بررسی همه جفت‌های ویژگی، تنها بر روی یک زیرمجموعه کوچک و منتخب از نقاط نمونه‌برداری متمرکز می‌شود. این تمرکز انتخابی ممکن است باعث شود که Deformable DETR کمتر به اطلاعات زمینه‌ای کلی (global context) که توسط برخی وظایف SSL (به ویژه آنهایی که بر بازسازی یا ترتیب فضایی بخش‌های بزرگتر تأکید دارند) آموخته می‌شود، حساس باشد. در مقابل، DETR استاندارد با مکانیسم توجه کامل خود، ممکن است از یادگیری‌های زمینه‌ای که توسط SSL ارائه می‌شود، بهره بیشتری ببرد.

    • همچنین، طبیعت وظایف خودنظارتی مورد بررسی در این مقاله ممکن است برای ترانسفورمرهایی با مکانیسم توجه جهانی مانند DETR مناسب‌تر باشد تا ترانسفورمرهایی با توجه محلی یا پراکنده مانند Deformable DETR.

  • اثربخشی روش‌های SSL بر فضای ویژگی: این نتایج به طور کلی اثبات می‌کنند که اعمال رویکردهای SSL بر روی فضای ویژگی‌های استخراج شده توسط CNN، و نه فقط فضای پیکسل، می‌تواند برای ترانسفورمرهای بینایی مفید باشد. این یک گام مهم در گسترش کاربرد SSL در معماری‌های پیچیده‌تر بینایی کامپیوتر است.

به طور خلاصه، این مطالعه نشان می‌دهد که یادگیری خودنظارتی می‌تواند ابزاری قدرتمند برای تسریع آموزش و بهبود کارایی DETR باشد، اما چالش‌هایی برای تعمیم مستقیم این مزایا به مدل‌های پیشرفته‌تر مانند Deformable DETR، به ویژه در حالت یادگیری چندوظیفه‌ای، وجود دارد که نیاز به تحقیقات بیشتر دارد.

کاربردها و دستاوردها

یافته‌های این تحقیق دارای کاربردهای عملی و دستاوردهای علمی مهمی هستند که می‌توانند مسیر آینده توسعه سیستم‌های تشخیص اشیاء را تحت تأثیر قرار دهند:

  • افزایش کارایی آموزش مدل‌ها: اصلی‌ترین دستاورد این تحقیق، نمایش پتانسیل SSL در تسریع فرآیند آموزش مدل‌های DETR است. همگرایی سریع‌تر به معنای نیاز به زمان و منابع محاسباتی کمتر برای رسیدن به یک سطح عملکرد مشخص است. این امر به ویژه در مواردی که دسترسی به سخت‌افزار قدرتمند محدود است یا نیاز به آموزش مجدد مکرر مدل‌ها (مثلاً در سناریوهای یادگیری مداوم یا انطباقی) وجود دارد، بسیار ارزشمند است.

  • کاهش وابستگی به داده‌های برچسب‌گذاری شده: از آنجایی که SSL به مدل‌ها کمک می‌کند تا ویژگی‌های مفید را از داده‌های بدون برچسب بیاموزند، این رویکرد می‌تواند وابستگی به مجموعه‌های داده عظیم و پرهزینه برچسب‌گذاری شده را کاهش دهد. این امر توسعه تشخیص اشیاء را در حوزه‌هایی که برچسب‌گذاری داده‌ها دشوار یا غیرممکن است (مانند تصاویر پزشکی خاص یا داده‌های نادر) تسهیل می‌کند.

  • پتانسیل برای بهبود عملکرد در وظایف پایین‌دستی: حتی اگر بهبود مستقیم در عملکرد نهایی همیشه مشاهده نشود، یک پیش‌آموزش قوی‌تر از طریق SSL می‌تواند مدل را در مقابل overfitting مقاوم‌تر کرده و پایه بهتری برای تنظیم دقیق (fine-tuning) در وظایف مختلف تشخیص اشیاء فراهم کند.

  • گسترش کاربرد SSL در بینایی کامپیوتر: این مطالعه نشان می‌دهد که اصول SSL می‌تواند فراتر از فضای پیکسل به فضای ویژگی‌های استخراج شده توسط CNN نیز گسترش یابد. این امر راه را برای تحقیقات آتی در زمینه اعمال SSL به سایر معماری‌های بینایی که بر روی نمایش‌های ویژگی انتزاعی‌تر عمل می‌کنند، باز می‌کند.

  • تسهیل تحقیقات آتی: نویسندگان با در دسترس قرار دادن کدهای مربوط به آزمایشات خود در گیت‌هاب (https://github.com/gokulkarthik/detr و https://github.com/gokulkarthik/Deformable-DETR)، یک دستاورد مهم در جهت ترویج شفافیت، قابلیت بازتولید (reproducibility) و تسهیل تحقیقات بیشتر در این حوزه را رقم زده‌اند. این اقدام به محققان دیگر امکان می‌دهد تا نتایج را تأیید کرده، روش‌ها را بهبود بخشند و ایده‌های جدیدی را بر اساس این پایه توسعه دهند.

  • شناسایی نقاط ضعف: عدم بهبود مشاهده شده برای Deformable DETR در یادگیری چندوظیفه‌ای، نه تنها یک محدودیت نیست، بلکه یک دستاورد علمی است که نیاز به بررسی عمیق‌تر تفاوت‌های معماری و تطبیق وظایف SSL با آنها را برجسته می‌کند. این یافته می‌تواند الهام‌بخش طراحی رویکردهای SSL جدیدی باشد که به طور خاص برای ویژگی‌های Deformable Attention بهینه شده‌اند.

در مجموع، این تحقیق با ارائه بینش‌های تجربی در مورد کاربرد SSL برای ترانسفورمرهای تشخیص اشیاء، نه تنها به پیشرفت‌های عملی در آموزش مدل‌ها کمک می‌کند، بلکه سؤالات جدیدی را برای تحقیقات نظری و طراحی معماری‌های آینده مطرح می‌سازد.

نتیجه‌گیری

مقاله “مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها” گام مهمی در درک پتانسیل و چالش‌های ادغام یادگیری خودنظارتی (SSL) با ترانسفورمرهای تشخیص اشیاء برداشته است. این تحقیق با در نظر گرفتن ماهیت منحصربه‌فرد ورودی این مدل‌ها (نقشه‌های ویژگی CNN به جای تصاویر خام)، روش‌های نوآورانه‌ای را برای تطبیق وظایف SSL رایج مانند مدل‌سازی ویژگی‌های پوشانده شده، بازسازی ویژگی‌ها و پازل اره‌مویی برای فضای ویژگی ارائه می‌دهد.

یافته‌های کلیدی نشان می‌دهند که رویکردهای SSL می‌توانند به طور قابل توجهی همگرایی مدل DETR را در اپوک‌های اولیه تسریع بخشند، هم در سناریوی پیش‌آموزش و هم در یادگیری چندوظیفه‌ای. این خود یک مزیت بزرگ برای افزایش کارایی و کاهش هزینه‌های محاسباتی در آموزش مدل‌های تشخیص اشیاء است. با این حال، عدم مشاهده بهبود مشابه برای Deformable DETR در حالت یادگیری چندوظیفه‌ای، نکته‌ای قابل تأمل است که تفاوت‌های ظریف بین مکانیسم‌های توجه در معماری‌های مختلف ترانسفورمر را برجسته می‌کند و نیاز به تحقیقات بیشتر برای طراحی وظایف SSL متناسب با این تفاوت‌ها را نشان می‌دهد.

این مطالعه نه تنها اثربخشی SSL را در حوزه تشخیص اشیاء مبتنی بر ترانسفورمر تأیید می‌کند، بلکه مسیرهای جدیدی را برای تحقیقات آینده هموار می‌سازد. در آینده، محققان می‌توانند به بررسی دقیق‌تر دلایل عدم بهبود Deformable DETR بپردازند و وظایف خودنظارتی جدیدی را توسعه دهند که به طور خاص برای معماری‌های توجه تغییر شکل‌پذیر بهینه شده‌اند. علاوه بر این، ارزیابی این رویکردها بر روی مجموعه داده‌های متنوع‌تر و برای سایر وظایف بینایی کامپیوتر نیز می‌تواند به تعمیم‌پذیری و قدرت این روش‌ها بیفزاید.

در نهایت، این مقاله نشان می‌دهد که با وجود چالش‌ها، هم‌افزایی یادگیری خودنظارتی و معماری‌های ترانسفورمر، افق‌های جدیدی را برای توسعه سیستم‌های هوشمندتر، کارآمدتر و کم‌وابسته‌تر به برچسب‌های دستی در بینایی کامپیوتر می‌گشاید. این مسیری است که نویدبخش پیشرفت‌های چشمگیری در سال‌های آتی خواهد بود.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله مطالعه تجربی رویکردهای یادگیری خودنظارتی برای تشخیص اشیاء با ترانسفورمرها به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا