,

مقاله حذف مفاهیم کاذب از نمایش‌های شبکه‌های عصبی با تخمین مشترک زیرفضا به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله حذف مفاهیم کاذب از نمایش‌های شبکه‌های عصبی با تخمین مشترک زیرفضا
نویسندگان Floris Holstege, Bram Wouters, Noud van Giersbergen, Cees Diks
دسته‌بندی علمی Machine Learning,Machine Learning

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

حذف مفاهیم کاذب از نمایش‌های شبکه‌های عصبی با تخمین مشترک زیرفضا

۱. معرفی مقاله و اهمیت آن

در سال‌های اخیر، شبکه‌های عصبی عمیق به دلیل توانایی بی‌نظیرشان در حل مسائل پیچیده، از جمله در بینایی کامپیوتر، پردازش زبان طبیعی و بسیاری از حوزه‌های دیگر، تحولات عظیمی را در هوش مصنوعی ایجاد کرده‌اند. با این حال، یکی از چالش‌های اساسی که این مدل‌ها با آن مواجه هستند، پدیده همبستگی‌های کاذب (spurious correlations) است. این پدیده زمانی رخ می‌دهد که مدل به جای یادگیری ویژگی‌های ذاتی و مرتبط با وظیفه اصلی، به طور ناخواسته الگوهایی را در داده‌های آموزشی می‌آموزد که فقط به صورت عرضی و تصادفی با برچسب هدف مرتبط هستند. نتیجه این امر، کاهش شدید توانایی مدل در تعمیم‌پذیری خارج از توزیع (out-of-distribution generalization) است؛ به این معنی که مدل در داده‌هایی که اندکی با داده‌های آموزشی متفاوت هستند، عملکرد ضعیفی از خود نشان می‌دهد.

اهمیت این مسئله زمانی بیشتر مشخص می‌شود که کاربردهای هوش مصنوعی در حوزه‌های حساس مانند پزشکی، رانندگی خودکار یا سیستم‌های عدالت اجتماعی به کار گرفته می‌شوند. یک مدل پزشکی که بر اساس رنگ پوست بیماران به جای نشانگرهای واقعی بیماری تصمیم‌گیری می‌کند، یا یک سیستم تشخیص چهره که به دلیل وجود عینک در تصاویر آموزشی، عملکرد متفاوتی برای گروه‌های مختلف دارد، نمونه‌های بارزی از پیامدهای منفی همبستگی‌های کاذب هستند. این نقص‌ها نه تنها اعتبار و اعتماد به سیستم‌های هوش مصنوعی را زیر سوال می‌برند، بلکه می‌توانند منجر به تبعیض، خطاها و حتی خطرات جانی شوند.

مقاله “حذف مفاهیم کاذب از نمایش‌های شبکه‌های عصبی با تخمین مشترک زیرفضا” پاسخی مبتکرانه به این چالش ارائه می‌دهد. این تحقیق، رویکردی نوین برای جداسازی و حذف دقیق مفاهیم کاذب از نمایش‌های داخلی شبکه‌های عصبی بدون آسیب رساندن به ویژگی‌های ضروری برای وظیفه اصلی مدل ارائه می‌دهد. این دستاورد می‌تواند گامی مهم در جهت ساخت سیستم‌های هوش مصنوعی قابل اعتمادتر، منصفانه‌تر و قدرتمندتر باشد که قادر به تعمیم‌پذیری مؤثر در محیط‌های واقعی و پویا هستند.

۲. نویسندگان و زمینه تحقیق

این مقاله حاصل تلاش‌های محققانی چون فلوریس هلستیج (Floris Holstege)، برام ووترز (Bram Wouters)، نود ون گیرزبرگن (Noud van Giersbergen) و سیز دیکس (Cees Diks) است. این تیم تحقیقاتی در زمینه یادگیری ماشین (Machine Learning) فعالیت می‌کنند و تمرکز ویژه‌ای بر بهبود قابلیت اطمینان، تعمیم‌پذیری و fairness (عدالت) در مدل‌های هوش مصنوعی دارند.

زمینه تحقیق این مقاله به یکی از داغ‌ترین و حیاتی‌ترین مباحث در هوش مصنوعی مدرن مربوط می‌شود: robustness و generalization (استحکام و تعمیم‌پذیری). در حالی که مدل‌های یادگیری عمیق به صورت فوق‌العاده‌ای در داده‌های آموزشی خود عملکرد بالایی دارند، اغلب در مواجهه با داده‌هایی که اندکی با توزیع آموزشی متفاوت هستند (مانند داده‌های خارج از توزیع یا OOD)، دچار افت شدید عملکرد می‌شوند. این مسئله نشان‌دهنده آن است که مدل‌ها ممکن است به جای یادگیری علل واقعی و ویژگی‌های محوری، به همبستگی‌های تصادفی و سطحی در داده‌ها تکیه کنند.

روش‌های موجود برای کاهش تأثیر همبستگی‌های کاذب، اغلب با مشکلاتی روبرو هستند. برخی از آن‌ها شامل اضافه کردن داده‌های بیشتر یا استفاده از تکنیک‌های تنظیم‌کننده (regularization) هستند که می‌توانند پرهزینه یا ناکارآمد باشند. روش‌های دیگر که مستقیماً به حذف مفاهیم می‌پردازند، معمولاً بیش از حد سخت‌گیرانه عمل می‌کنند و در حین تلاش برای حذف مفاهیم کاذب، به طور ناخواسته ویژگی‌های مرتبط با وظیفه اصلی مدل را نیز حذف می‌کنند. این “حذف بیش از حد” منجر به کاهش عملکرد کلی مدل می‌شود، حتی اگر تعمیم‌پذیری بهبود یابد. این معضل، نیاز به رویکردی دقیق‌تر و هوشمندانه‌تر را برجسته می‌سازد که بتواند به طور موثر مفاهیم کاذب را شناسایی و حذف کند، بدون آنکه به توانایی اصلی مدل آسیبی برساند. این مقاله دقیقاً به دنبال حل این چالش حیاتی است.

۳. چکیده و خلاصه محتوا

چکیده مقاله به وضوح مشکل اصلی و راه‌حل پیشنهادی را بیان می‌کند: تعمیم‌پذیری خارج از توزیع (Out-of-distribution generalization) در شبکه‌های عصبی اغلب توسط همبستگی‌های کاذب (spurious correlations) مختل می‌شود. این همبستگی‌ها مدل را گمراه کرده و باعث می‌شوند به جای ویژگی‌های مهم، بر جنبه‌های نامربوط داده‌ها تمرکز کند.

راهبرد رایج برای مقابله با این مشکل، حذف مفاهیم کاذب از نمایش‌های شبکه عصبی است. با این حال، همانطور که پیشتر نیز اشاره شد، روش‌های موجود اغلب در این زمینه بیش از حد “سخت‌گیرانه” عمل می‌کنند. به این معنی که آن‌ها به طور ناخواسته و بدون قصد قبلی، ویژگی‌هایی را نیز حذف می‌کنند که برای وظیفه اصلی مدل حیاتی هستند. این حذف بی‌رویه منجر به کاهش عملکرد کلی مدل می‌شود و تعادل میان حذف همبستگی‌های کاذب و حفظ کارایی مدل را برهم می‌زند.

محققان برای غلبه بر این محدودیت‌ها، یک الگوریتم تکراری جدید پیشنهاد کرده‌اند. این الگوریتم با شناسایی مشترک دو زیرفضای متعامد کم‌بعد (low-dimensional orthogonal subspaces) در نمایش‌های شبکه عصبی، مفاهیم کاذب را از مفاهیم مرتبط با وظیفه اصلی جدا می‌کند. مفهوم “متعامد” در اینجا به این معنی است که این دو زیرفضا از نظر ریاضی مستقل از یکدیگر هستند، بنابراین می‌توان مفاهیم موجود در یک زیرفضا را بدون تأثیر بر مفاهیم موجود در دیگری دستکاری یا حذف کرد.

این رویکرد نوآورانه تضمین می‌کند که فرآیند حذف مفاهیم کاذب به طور دقیق انجام شود و از آسیب رساندن به قابلیت‌های اصلی مدل جلوگیری به عمل آید. ارزیابی این الگوریتم بر روی مجموعه‌داده‌های معتبر و معیار در حوزه‌های بینایی کامپیوتر (Waterbirds, CelebA) و پردازش زبان طبیعی (MultiNLI) نشان داده است که روش پیشنهادی به طور قابل توجهی بهتر از روش‌های حذف مفهوم موجود عمل می‌کند. این بدان معناست که مدل‌های آموزش‌دیده با این روش، نه تنها در تشخیص مفاهیم کاذب موفق‌ترند، بلکه عملکرد وظیفه اصلی خود را نیز به نحو احسن حفظ می‌کنند و توانایی تعمیم‌پذیری آن‌ها به داده‌های خارج از توزیع افزایش می‌یابد.

۴. روش‌شناسی تحقیق

قلب نوآوری این مقاله در الگوریتم تکراری و رویکرد تخمین مشترک زیرفضا (Joint Subspace Estimation) نهفته است. برای درک بهتر این روش‌شناسی، ابتدا باید به این نکته توجه کرد که نمایش‌های داخلی یک شبکه عصبی (یعنی بردارهای ویژگی که در لایه‌های میانی مدل تولید می‌شوند) مخلوطی از اطلاعات مرتبط با وظیفه اصلی و اطلاعات نامربوط یا کاذب هستند.

روش پیشنهادی با هدف جداسازی این دو نوع اطلاعات به دو زیرفضای مستقل و متعامد در فضای ویژگی عمل می‌کند. فرآیند به این صورت است:

  • شناسایی دو زیرفضا: الگوریتم به صورت همزمان دو زیرفضا را در فضای بردارهای ویژگی شبکه عصبی شناسایی می‌کند:

    • زیرفضای مفاهیم وظیفه اصلی: این زیرفضا شامل ویژگی‌هایی است که برای انجام صحیح وظیفه اصلی مدل ضروری و حیاتی هستند.
    • زیرفضای مفاهیم کاذب: این زیرفضا شامل ویژگی‌هایی است که صرفاً به دلیل همبستگی‌های تصادفی در داده‌های آموزشی، با برچسب هدف مرتبط شده‌اند و در حقیقت برای حل مسئله بی‌اهمیت یا حتی مضر هستند.
  • تعامد (Orthogonality): نکته کلیدی اینجاست که این دو زیرفضا متعامد (orthogonal) هستند. به بیان ساده، این بدان معنی است که این دو فضا از نظر ریاضی بر یکدیگر اثر نمی‌گذارند و مستقل از هم هستند. این ویژگی به الگوریتم اجازه می‌دهد تا مفاهیم کاذب را از زیرفضای مربوط به خود حذف کند بدون آنکه بر ویژگی‌های حیاتی وظیفه اصلی در زیرفضای دیگر تأثیری بگذارد. این امر مانع از “حذف بیش از حد” می‌شود که در روش‌های قبلی یک مشکل رایج بود.

  • الگوریتم تکراری: فرآیند شناسایی این زیرفضاها به صورت تکراری (iterative) انجام می‌شود. این بدان معناست که الگوریتم به صورت مرحله به مرحله و با بازخورد مداوم، تخمین خود را از این زیرفضاها بهبود می‌بخشد. در هر تکرار، مدل تلاش می‌کند تا جداسازی بهتری بین مفاهیم واقعی و کاذب ایجاد کند و با هر تکرار، مرز بین این دو زیرفضا دقیق‌تر می‌شود.

  • حذف مفاهیم کاذب: پس از شناسایی زیرفضای مفاهیم کاذب، می‌توان با استفاده از روش‌های مناسب (مانند حذف ابعاد مربوطه یا صفر کردن مؤلفه‌ها) تأثیر این مفاهیم را از نمایش شبکه عصبی حذف کرد و در نهایت یک نمایش “تمیزتر” و عاری از سوگیری برای مدل به ارمغان آورد.

این روش بر خلاف رویکردهای ساده‌انگارانه که ممکن است به صورت کورکورانه برخی از ابعاد را حذف کنند، به طور هوشمندانه و با درک ساختار زیربنایی داده، این جداسازی را انجام می‌دهد. ارزیابی این روش بر روی مجموعه‌داده‌های مختلف در بینایی کامپیوتر (Waterbirds, CelebA) و پردازش زبان طبیعی (MultiNLI)، کارایی و برتری آن را نسبت به روش‌های پیشین اثبات می‌کند. در مجموعه‌داده‌های بینایی، مفاهیم کاذب می‌توانند شامل پس‌زمینه‌های خاص یا ویژگی‌های غیرمرتبط با شیء هدف باشند، و در پردازش زبان طبیعی، می‌توانند شامل کلمات یا عباراتی باشند که بدون درک معنای واقعی جمله، به عنوان میانبر برای تصمیم‌گیری استفاده می‌شوند.

۵. یافته‌های کلیدی

یافته‌های این تحقیق به وضوح نشان‌دهنده اثربخشی روش پیشنهادی در مقابله با همبستگی‌های کاذب و بهبود تعمیم‌پذیری مدل‌های یادگیری عمیق است. نتایج آزمایش‌ها بر روی مجموعه‌داده‌های معیار، برتری این رویکرد را نسبت به روش‌های موجود حذف مفهوم تأیید می‌کنند:

  • مجموعه‌داده Waterbirds: این مجموعه‌داده به منظور ارزیابی robustness مدل‌ها در برابر همبستگی‌های کاذب طراحی شده است. در این مجموعه‌داده، دسته‌ای از پرندگان (آبی و خشکی) در پس‌زمینه‌های متفاوت (آب و خشکی) قرار دارند. مشکل اینجاست که بیشتر پرندگان آبی در پس‌زمینه آب و پرندگان خشکی در پس‌زمینه خشکی تصویربرداری شده‌اند. یک مدل ساده ممکن است به جای یادگیری ویژگی‌های خود پرنده، به پس‌زمینه توجه کند. به عنوان مثال، اگر یک پرنده آبی در پس‌زمینه خشکی قرار گیرد (که یک سناریوی OOD است)، مدل سنتی احتمالاً آن را به اشتباه “پرنده خشکی” طبقه‌بندی می‌کند. یافته‌های مقاله نشان داد که روش تخمین مشترک زیرفضا می‌تواند به طور مؤثر این همبستگی کاذب بین نوع پرنده و پس‌زمینه را حذف کند، در نتیجه مدل قادر به شناسایی صحیح پرنده بدون توجه به پس‌زمینه می‌شود و عملکرد آن در سناریوهای OOD به طور چشمگیری بهبود می‌یابد.

  • مجموعه‌داده CelebA: این مجموعه‌داده شامل تصاویر افراد مشهور با برچسب‌های مختلف ویژگی‌های ظاهری (مانند جنسیت، رنگ مو، لبخند و غیره) است. در این مجموعه‌داده، سوگیری‌های ذاتی زیادی وجود دارد؛ برای مثال، ممکن است ویژگی “موهای بلوند” بیشتر با “زنان” مرتبط باشد یا “لبخند” بیشتر با “مردان” در نمونه‌های آموزشی. مدل‌هایی که این همبستگی‌های کاذب را می‌آموزند، می‌توانند منجر به تصمیم‌گیری‌های ناعادلانه یا سوگیرانه شوند. نتایج نشان داد که روش پیشنهادی می‌تواند به طور موفقیت‌آمیزی این سوگیری‌ها را از نمایش‌های داخلی شبکه حذف کند، که منجر به پیش‌بینی‌های عادلانه‌تر و کمتر سوگیرانه برای ویژگی‌های مختلف می‌شود. این دستاورد به ویژه در توسعه سیستم‌های هوش مصنوعی منصفانه (Fair AI) حائز اهمیت است.

  • مجموعه‌داده MultiNLI: در حوزه پردازش زبان طبیعی، این مجموعه‌داده برای استنتاج طبیعی زبان (Natural Language Inference) استفاده می‌شود، جایی که مدل باید رابطه بین دو جمله را تعیین کند (تناقض، استلزام یا بی‌طرفی). در این زمینه، مفاهیم کاذب می‌توانند شامل سرنخ‌های لغوی (lexical cues) یا الگوهای سطحی کلمات باشند که بدون درک معنای عمیق، به عنوان میانبر برای پاسخ صحیح به کار می‌روند. به عنوان مثال، وجود برخی کلمات مشترک ممکن است مدل را به سمت “استلزام” هدایت کند، حتی اگر از نظر معنایی چنین نباشد. مقاله نشان داد که روش آن‌ها می‌تواند مدل را قادر سازد تا بر روابط منطقی و معنایی واقعی تمرکز کند و از تکیه بر این میانبرهای سطحی جلوگیری کند، در نتیجه دقت و تعمیم‌پذیری مدل در وظایف پیچیده‌تر زبانی بهبود می‌یابد.

در مجموع، این یافته‌ها تأکید می‌کنند که رویکرد تخمین مشترک زیرفضا نه تنها در حذف مفاهیم کاذب مؤثر است، بلکه این کار را بدون به خطر انداختن عملکرد اصلی مدل انجام می‌دهد و منجر به افزایش قابل توجه در تعمیم‌پذیری خارج از توزیع و استحکام (robustness) مدل‌های هوش مصنوعی می‌شود. این یعنی مدل‌ها کمتر به داده‌های آموزشی خود وابسته هستند و در محیط‌های جدید و ناآشنا، بهتر عمل می‌کنند.

۶. کاربردها و دستاوردها

این تحقیق نه تنها یک پیشرفت نظری است، بلکه پیامدهای عملی گسترده‌ای برای توسعه سیستم‌های هوش مصنوعی قابل اعتماد و کارآمد دارد. کاربردها و دستاوردهای اصلی این روش عبارتند از:

  • افزایش استحکام مدل‌ها (Model Robustness): با حذف وابستگی‌های ناخواسته به مفاهیم کاذب، مدل‌ها در برابر تغییرات محیطی یا داده‌های ناهمگون که ممکن است در سناریوهای واقعی با آن‌ها روبرو شوند، بسیار مقاوم‌تر خواهند شد. به عنوان مثال، یک خودروی خودران باید بتواند در شرایط آب و هوایی متفاوت یا در محیط‌هایی با نورپردازی متغیر به درستی عمل کند، و نه فقط در شرایطی که در داده‌های آموزشی غالب بوده‌اند.

  • بهبود عدالت و کاهش سوگیری (Fairness and Bias Reduction): همانطور که در مثال مجموعه‌داده CelebA مشاهده شد، این روش می‌تواند به کاهش سوگیری‌های نژادی، جنسیتی یا سایر سوگیری‌های اجتماعی موجود در داده‌های آموزشی کمک کند. این امر برای کاربردهای حساس مانند سیستم‌های استخدام، وام‌دهی، یا تشخیص پزشکی که در آن‌ها تصمیم‌گیری‌های سوگیرانه می‌تواند منجر به تبعیض و نابرابری شود، حیاتی است.

  • تعمیم‌پذیری بهتر خارج از توزیع (Enhanced OOD Generalization): یکی از بزرگترین چالش‌های هوش مصنوعی، عملکرد ضعیف در داده‌هایی است که توزیع آماری آن‌ها با داده‌های آموزشی متفاوت است. این روش با وادار کردن مدل به تمرکز بر ویژگی‌های علّی و محوری، به طور چشمگیری توانایی آن را در تعمیم به داده‌های دیده نشده و متنوع افزایش می‌دهد.

  • سیستم‌های هوش مصنوعی قابل توضیح و شفاف‌تر (More Explainable AI Systems): با جداسازی مفاهیم مرتبط از مفاهیم کاذب، می‌توان بینش بهتری نسبت به آنچه مدل واقعاً یاد می‌گیرد، به دست آورد. این امر می‌تواند به توسعه سیستم‌های هوش مصنوعی قابل توضیح‌تر کمک کند که در آن می‌توان ریشه‌های تصمیم‌گیری مدل را بهتر درک و ارزیابی کرد.

  • کاهش نیاز به داده‌افزایی (Data Augmentation) پیچیده: در حال حاضر، یکی از روش‌های رایج برای مقابله با همبستگی‌های کاذب، استفاده از تکنیک‌های پیچیده داده‌افزایی است. این روش با حذف مستقیم مفاهیم کاذب، ممکن است نیاز به تولید حجم عظیمی از داده‌های مصنوعی برای پوشش دادن تمامی حالات ممکن را کاهش دهد و فرآیند آموزش مدل را ساده‌تر و کارآمدتر سازد.

  • کاربرد در حوزه‌های بحرانی: این رویکرد می‌تواند در حوزه‌هایی مانند تشخیص بیماری‌های پزشکی (جلوگیری از تکیه بر آرتیفکت‌های تصویر به جای نشانه‌های واقعی بیماری)، سیستم‌های امنیتی (شناسایی افراد بر اساس ویژگی‌های واقعی به جای لباس یا پس‌زمینه) و کنترل کیفیت صنعتی (شناسایی نقص‌های واقعی محصول) بسیار مفید باشد.

در مجموع، دستاورد اصلی این مقاله فراهم آوردن ابزاری قدرتمند برای ساخت نسل جدیدی از مدل‌های هوش مصنوعی است که نه تنها عملکرد بالایی دارند، بلکه قابل اعتمادتر، منصفانه‌تر و قادر به تعمیم‌پذیری مؤثر در دنیای واقعی هستند. این گام بزرگی به سوی هوش مصنوعی مسئولانه و اخلاقی است.

۷. نتیجه‌گیری

مشکل همبستگی‌های کاذب در شبکه‌های عصبی، یکی از بزرگترین موانع در مسیر دستیابی به تعمیم‌پذیری خارج از توزیع (OOD generalization) و ساخت سیستم‌های هوش مصنوعی قابل اعتماد است. این مقاله با ارائه یک الگوریتم تکراری مبتنی بر تخمین مشترک زیرفضا، راه حلی هوشمندانه و مؤثر برای این چالش ارائه می‌دهد.

نوآوری اصلی این روش در توانایی آن برای جداسازی دقیق مفاهیم کاذب از مفاهیم مرتبط با وظیفه اصلی در نمایش‌های داخلی شبکه عصبی نهفته است. این جداسازی از طریق شناسایی دو زیرفضای متعامد کم‌بعد صورت می‌گیرد، که تضمین می‌کند حذف مفاهیم کاذب بدون آسیب رساندن به ویژگی‌های حیاتی مدل انجام شود. این امر به طور مستقیم به نقطه ضعف روش‌های پیشین که غالباً به حذف بیش از حد منجر می‌شدند، پاسخ می‌دهد.

نتایج ارزیابی‌های گسترده بر روی مجموعه‌داده‌های معتبر در بینایی کامپیوتر (Waterbirds, CelebA) و پردازش زبان طبیعی (MultiNLI)، به وضوح برتری روش پیشنهادی را نسبت به رویکردهای موجود در حذف مفهوم اثبات کرده است. این دستاوردها نه تنها به بهبود عملکرد مدل در سناریوهای OOD منجر می‌شوند، بلکه پتانسیل عظیمی برای ساخت مدل‌های هوش مصنوعی منصفانه‌تر، مقاوم‌تر و قابل اعتمادتر را در حوزه‌های مختلف کاربردی، از جمله پزشکی، خودروسازی، و سیستم‌های اجتماعی-اقتصادی، فراهم می‌آورند.

در نهایت، این تحقیق گام مهمی در جهت پیشبرد هوش مصنوعی مسئولانه و اخلاقی برمی‌دارد. با کاهش وابستگی مدل‌ها به همبستگی‌های سطحی و کاذب، ما به سوی ساخت سیستم‌هایی حرکت می‌کنیم که قادر به درک عمیق‌تر و تصمیم‌گیری‌های هوشمندانه‌تر و بی‌طرفانه‌تر در دنیای پیچیده و متغیر واقعی هستند. تحقیقات آینده می‌تواند بر توسعه این رویکرد در معماری‌های مختلف شبکه و بررسی چگونگی استفاده از این زیرفضاهای شناسایی‌شده برای بهبود قابلیت توضیح (explainability) مدل تمرکز کند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله حذف مفاهیم کاذب از نمایش‌های شبکه‌های عصبی با تخمین مشترک زیرفضا به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا