,

مقاله بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی
نویسندگان Zijun Wu, Anup Anand Deshmukh, Yongkang Wu, Jimmy Lin, Lili Mou
دسته‌بندی علمی Computation and Language

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی

۱. معرفی مقاله و اهمیت آن

در حوزه پردازش زبان طبیعی (NLP)، پیش‌بینی ساختارهای زبانی، مانند تحلیل نحوی (parsing) و بخش‌بندی (chunking)، به طور سنتی وابستگی شدیدی به اطلاعات دست‌ساز و برچسب‌گذاری شده توسط انسان داشته است. این وابستگی، به ویژه برای زبان‌هایی با منابع کم یا برای توسعه سریع سیستم‌ها، یک چالش اساسی محسوب می‌شود. مقاله “بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی” (Unsupervised Chunking with Hierarchical RNN) به معرفی رویکردی نوین و بدون نظارت برای بخش‌بندی می‌پردازد. بخش‌بندی یک وظیفه نحوی است که شامل گروه‌بندی کلمات به صورت غیرسلسله‌مراتبی، برای تشکیل واحدهای معنادارتر مانند گروه‌های اسمی یا فعلی، می‌شود. اهمیت این پژوهش در آن است که با ارائه روشی کارآمد و بدون نیاز به داده‌های برچسب‌گذاری شده، امکان توسعه مدل‌های NLP را در مقیاس وسیع‌تر و برای زبان‌های متنوع‌تر فراهم می‌آورد. این رویکرد نه تنها بار مالی و زمانی مربوط به تولید داده‌های آموزشی را کاهش می‌دهد، بلکه دریچه‌های جدیدی را برای درک خودکار ساختارهای زبانی توسط ماشین می‌گشاید و به پیشرفت در نظریه‌های زبان‌شناسی محاسباتی کمک می‌کند.

توانایی استخراج ساختارهای نحوی بدون نظارت، گامی مهم در جهت تقلید از نحوه یادگیری زبان توسط انسان است که در آن، اطلاعات برچسب‌گذاری شده صریح کمتر در دسترس است. این مقاله نشان می‌دهد که چگونه می‌توان با استفاده از معماری‌های پیشرفته شبکه‌های عصبی، به نتایجی قابل توجه در این زمینه دست یافت و محدودیت‌های روش‌های پیشین را برطرف ساخت. در واقع، هدف اصلی، حرکت به سمت NLP خودکارتر و مستقل‌تر از دخالت انسانی است که می‌تواند تأثیرات عمیقی بر تمامی زیرشاخه‌های این علم داشته باشد.

۲. نویسندگان و زمینه تحقیق

این پژوهش توسط گروهی از محققان برجسته شامل Zijun Wu، Anup Anand Deshmukh، Yongkang Wu، Jimmy Lin و Lili Mou انجام شده است. این اسامی نشان‌دهنده تخصص و تجربه قوی در حوزه‌های مرتبط با پردازش زبان طبیعی، یادگیری ماشین و شبکه‌های عصبی هستند. زمینه اصلی این تحقیق، پردازش زبان طبیعی و به طور خاص، کشف ساختارهای نحوی زبان به روش‌های بدون نظارت است که در دسته “محاسبات و زبان” (Computation and Language) قرار می‌گیرد.

تحقیقات در این زمینه معمولاً به دنبال پاسخ به این سؤال هستند که چگونه می‌توان بدون استفاده از حجم عظیمی از داده‌های متنی که به صورت دستی تحلیل و برچسب‌گذاری شده‌اند، ساختارهای گرامری و معنایی زبان را استخراج کرد. این مسئله به ویژه در زبان‌شناسی محاسباتی و هوش مصنوعی اهمیت پیدا می‌کند، زیرا برچسب‌گذاری دستی فرآیندی پرهزینه، زمان‌بر و نیازمند دانش تخصصی است. رویکردهای بدون نظارت در NLP، به جای تکیه بر برچسب‌های صریح، تلاش می‌کنند تا الگوها و ساختارهای زیربنایی را از داده‌های خام و بدون برچسب یاد بگیرند. این امر نه تنها توسعه مدل‌ها را تسریع می‌بخشد، بلکه امکان کاربرد NLP را در زبان‌هایی که فاقد منابع کافی هستند، فراهم می‌آورد.

نویسندگان این مقاله با بهره‌گیری از پیشرفت‌های اخیر در شبکه‌های عصبی بازگشتی (RNNs)، به دنبال مدل‌سازی پیچیدگی‌های زبانی به شکلی سلسله‌مراتبی و خودکار بوده‌اند. کار آنها در ادامه تلاش‌های گسترده‌تر جامعه علمی برای کاهش وابستگی به نظارت انسانی و حرکت به سمت یادگیری ماشین خودکار و عمومی‌تر در حوزه زبان صورت می‌گیرد.

۳. چکیده و خلاصه محتوا

چکیده مقاله به وضوح هدف، روش و نتایج کلیدی تحقیق را بیان می‌کند. هسته اصلی این پژوهش معرفی رویکردی بدون نظارت برای بخش‌بندی است. بخش‌بندی، فرآیند گروه‌بندی کلمات مجاور در یک جمله به “بخش‌ها” (chunks) است که واحدهای نحوی مهمی مانند گروه‌های اسمی (Noun Phrases)، گروه‌های فعلی (Verb Phrases) یا گروه‌های حرف‌اضافه‌ای (Prepositional Phrases) را تشکیل می‌دهند. برخلاف تحلیل نحوی کامل که ساختارهای درختی سلسله‌مراتبی تولید می‌کند، بخش‌بندی بر شناسایی این گروه‌های غیرسلسله‌مراتبی تمرکز دارد.

برای دستیابی به این هدف، محققان یک شبکه عصبی بازگشتی سلسله‌مراتبی (HRNN) دو لایه را پیشنهاد کرده‌اند. این شبکه به گونه‌ای طراحی شده که قابلیت مدل‌سازی ترکیب کلمات به بخش‌ها و سپس ترکیب بخش‌ها به جملات را دارد. فرآیند آموزش این مدل دو مرحله‌ای است:

  1. پیش‌آموزش (Pretraining): مدل ابتدا با استفاده از یک تحلیل‌گر نحوی بدون نظارت بر روی داده‌های خام و بدون برچسب، پیش‌آموزش داده می‌شود تا نمایش‌های اولیه و مفیدی از ساختارهای زبانی را فرا گیرد.
  2. تنظیم دقیق (Finetuning): پس از پیش‌آموزش، مدل بر روی وظایف پایین‌دستی (downstream NLP tasks) تنظیم دقیق می‌شود. این مرحله به مدل اجازه می‌دهد تا توانایی بخش‌بندی خود را برای کاربردهای خاص NLP بهبود بخشد.

نتایج آزمایش‌ها بر روی مجموعه داده CoNLL-2000 بسیار امیدوارکننده است. این رویکرد بهبود قابل توجهی را نسبت به روش‌های بدون نظارت موجود نشان می‌دهد و امتیاز F1 مربوط به شناسایی بخش‌ها را تا ۶ واحد درصد افزایش می‌دهد. نکته جالب توجه دیگر این است که تنظیم دقیق با وظایف پایین‌دستی، بهبود عملکرد بیشتری را به همراه دارد. یک مشاهده شگفت‌انگیز در این مطالعه این است که ظهور ساختار بخش‌بندی در طول آموزش مدل عصبی برای وظایف پایین‌دستی گذرا است. این بدان معناست که مدل ممکن است در ابتدا ساختارهای بخش‌بندی را به وضوح یاد بگیرد، اما با بهینه‌سازی برای وظایف خاص‌تر، این ساختارها ممکن است تغییر شکل داده یا کمتر صریح شوند.

این مطالعه به پیشرفت در کشف ساختارهای نحوی بدون نظارت کمک می‌کند و مسیرهای جدیدی برای تحقیقات بیشتر در نظریه زبان‌شناسی باز می‌کند، به ویژه در مورد چگونگی نمایش و پردازش ساختارهای زبانی توسط شبکه‌های عصبی.

۴. روش‌شناسی تحقیق

روش‌شناسی این تحقیق بر پایه یک معماری نوآورانه به نام شبکه عصبی بازگشتی سلسله‌مراتبی (HRNN) بنا شده است. این شبکه دو لایه دارد که برای مدل‌سازی سطوح مختلف ترکیب‌پذیری زبان طراحی شده‌اند:

  • لایه اول: ترکیب کلمه به بخش (Word-to-Chunk Composition): این لایه مسئول یادگیری چگونگی گروه‌بندی کلمات مجاور برای تشکیل واحدهای نحوی کوچک‌تر یا همان “بخش‌ها” است. به عنوان مثال، در عبارت “دانشگاه تهران”، لایه اول یاد می‌گیرد که “دانشگاه” و “تهران” یک “گروه اسمی” را تشکیل می‌دهند. این لایه نمایش‌های برداری (embeddings) برای هر کلمه تولید می‌کند و سپس با استفاده از مکانیزم‌های بازگشتی، این نمایش‌ها را به نمایش‌های برداری برای بخش‌ها ترکیب می‌کند.
  • لایه دوم: ترکیب بخش به جمله (Chunk-to-Sentence Composition): پس از تشکیل بخش‌ها توسط لایه اول، لایه دوم این بخش‌ها را ترکیب می‌کند تا ساختار و معنای کل جمله را مدل‌سازی کند. این لایه با در نظر گرفتن نمایش‌های برداری بخش‌ها، روابط بین آنها را در سطح بالاتر درک می‌کند. به این ترتیب، HRNN می‌تواند هم جزئیات ریز (کلمات) و هم ساختارهای درشت‌تر (بخش‌ها و جملات) را به طور همزمان پردازش کند.

فرآیند آموزش این مدل به صورت دو مرحله‌ای انجام می‌شود تا از مزایای یادگیری بدون نظارت و تنظیم دقیق برای وظایف خاص بهره‌مند شود:

  1. پیش‌آموزش بدون نظارت (Unsupervised Pretraining): در این مرحله، مدل HRNN بر روی حجم زیادی از متن بدون برچسب آموزش می‌بیند. به جای استفاده از برچسب‌های صریح بخش‌بندی، از یک تحلیل‌گر نحوی بدون نظارت استفاده می‌شود. این تحلیل‌گر به صورت ضمنی ساختارهای نحوی را از داده‌ها استخراج می‌کند. به عنوان مثال، می‌تواند روابط احتمالی بین کلمات را بر اساس فراوانی هم‌رخدادی یا ساختارهای درختی پنهان (latent tree structures) مدل‌سازی کند. هدف از این مرحله، این است که مدل نمایش‌های برداری غنی و مفیدی را برای کلمات و ساختارهای اولیه بخش‌بندی فرا بگیرد، بدون اینکه نیازی به هیچ‌گونه برچسب‌گذاری دستی باشد. این کار پایه محکمی برای یادگیری‌های بعدی فراهم می‌کند.
  2. تنظیم دقیق بر روی وظایف پایین‌دستی (Finetuning on Downstream Tasks): پس از پیش‌آموزش، مدل برای بهبود عملکرد خود بر روی وظایف خاص NLP، مانند شناسایی موجودیت‌های نام‌گذاری شده (NER) یا برچسب‌گذاری اجزای کلام (POS tagging)، تنظیم دقیق می‌شود. در این مرحله، از حجم کمی از داده‌های برچسب‌گذاری شده مربوط به آن وظایف خاص استفاده می‌شود. این فرآیند به مدل اجازه می‌دهد تا ویژگی‌های بخش‌بندی خود را به گونه‌ای تنظیم کند که بیشترین سود را برای وظیفه نهایی داشته باشد. در واقع، مدل از دانش کلی کسب شده در مرحله پیش‌آموزش استفاده می‌کند و آن را برای یک هدف کاربردی خاص بهینه می‌سازد.

ارزیابی عملکرد مدل بر روی مجموعه داده استاندارد CoNLL-2000 انجام شده است که به طور گسترده برای ارزیابی عملکرد سیستم‌های بخش‌بندی استفاده می‌شود. معیارهای اصلی ارزیابی شامل امتیاز F1 برای شناسایی دقیق بخش‌ها است که ترکیبی از دقت (precision) و فراخوان (recall) را ارائه می‌دهد.

۵. یافته‌های کلیدی

این مطالعه به دستاوردهای مهمی در زمینه بخش‌بندی بدون نظارت دست یافته که می‌تواند تأثیرات قابل توجهی بر آینده پردازش زبان طبیعی داشته باشد:

  • بهبود چشمگیر عملکرد بخش‌بندی: مهم‌ترین یافته، بهبود عملکرد قابل توجه مدل HRNN در مقایسه با روش‌های بدون نظارت پیشین است. آزمایش‌ها بر روی مجموعه داده CoNLL-2000 نشان داد که رویکرد پیشنهادی، امتیاز F1 را برای شناسایی بخش‌ها تا ۶ واحد درصد افزایش می‌دهد. این میزان بهبود در علم NLP، به ویژه برای یک روش بدون نظارت، بسیار قابل توجه است و نشان‌دهنده کارآمدی بالای معماری HRNN و استراتژی آموزش دو مرحله‌ای است. این بهبود به معنای توانایی دقیق‌تر مدل در شناسایی مرزهای بخش‌های نحوی مانند گروه‌های اسمی یا فعلی است.
  • مزیت تنظیم دقیق با وظایف پایین‌دستی: محققان مشاهده کردند که فرآیند تنظیم دقیق (finetuning) مدل با استفاده از وظایف پایین‌دستی NLP (مانند شناسایی موجودیت‌های نام‌گذاری شده)، منجر به بهبود بیشتر عملکرد بخش‌بندی می‌شود. این یافته تأیید می‌کند که حتی با هدف آموزش یک سیستم بدون نظارت، ادغام دانش از وظایف کاربردی می‌تواند به پالایش و بهینه‌سازی ساختارهای زبانی یادگرفته شده کمک کند. این بدان معناست که بخش‌بندی یادگرفته شده قابلیت انطباق و بهبود برای کاربردهای خاص را دارد.
  • ماهیت گذرا بودن ساختار بخش‌بندی: یکی از جذاب‌ترین و غیرمنتظره‌ترین یافته‌ها این است که ظهور ساختار بخش‌بندی در طول آموزش مدل عصبی برای وظایف پایین‌دستی گذرا است. به عبارت دیگر، مدل ممکن است در مراحل اولیه آموزش یا در مرحله پیش‌آموزش، ساختارهای بخش‌بندی را به وضوح یاد بگیرد، اما زمانی که مدل برای یک وظیفه نهایی خاص مانند طبقه‌بندی متن یا ترجمه ماشینی بهینه‌سازی می‌شود، نمایش‌های داخلی مربوط به بخش‌بندی ممکن است تغییر شکل داده یا کمتر صریح شوند. این پدیده می‌تواند دلایل متعددی داشته باشد:
    • شبکه ممکن است برای انجام وظیفه نهایی، نمایش‌های پیچیده‌تری از زبان را یاد بگیرد که فراتر از بخش‌بندی سنتی است.
    • ساختار بخش‌بندی ممکن است به عنوان یک قدم میانی (stepping stone) برای یادگیری نمایش‌های کارآمدتر برای وظیفه پایین‌دستی عمل کند، و نه یک هدف نهایی در خود.
    • این مشاهده می‌تواند دریچه‌ای به سوی تحقیقات عمیق‌تر در مورد چگونگی نمایش ساختارهای زبانی در شبکه‌های عصبی و ارتباط آن با نظریه‌های زبان‌شناسی بگشاید.

به طور خلاصه، این تحقیق نه تنها یک روش کارآمد برای بخش‌بندی بدون نظارت ارائه می‌دهد، بلکه بینش‌های جدیدی در مورد دینامیک یادگیری ساختارهای زبانی در مدل‌های عصبی ارائه می‌کند. این یافته‌ها به طور مستقیم به پیشبرد هدف کلی کاهش وابستگی NLP به داده‌های برچسب‌گذاری شده کمک می‌کنند.

۶. کاربردها و دستاوردها

دستاوردهای این مطالعه پیامدهای عملی و نظری مهمی برای حوزه پردازش زبان طبیعی و زبان‌شناسی محاسباتی دارد:

  • کاهش وابستگی به برچسب‌گذاری دستی: مهم‌ترین کاربرد، کاهش چشمگیر نیاز به داده‌های برچسب‌گذاری شده دستی است. این امر فرآیند توسعه مدل‌های NLP را سریع‌تر و کم‌هزینه‌تر می‌کند. در سناریوهای واقعی، برچسب‌گذاری دستی توسط متخصصین زبان‌شناسی، گران و زمان‌بر است. روش‌های بدون نظارت این بار را کاهش داده و امکان ساخت سیستم‌های NLP را در مقیاس وسیع‌تر فراهم می‌آورند.
  • فعال‌سازی NLP برای زبان‌های کم‌منبع: بسیاری از زبان‌های دنیا فاقد منابع متنی برچسب‌گذاری شده کافی هستند. این رویکرد بدون نظارت، راه را برای توسعه ابزارهای NLP (مانند سیستم‌های جستجو، ترجمه ماشینی و خلاصه‌سازی متن) برای این زبان‌های کم‌منبع (low-resource languages) هموار می‌سازد، که پیش از این به دلیل کمبود داده آموزشی با نظارت، غیرممکن یا بسیار دشوار بود.
  • بهبود وظایف پایین‌دستی NLP: بخش‌بندی یک مرحله میانی حیاتی برای بسیاری از وظایف NLP است. بهبود در بخش‌بندی بدون نظارت می‌تواند به طور غیرمستقیم عملکرد این وظایف را افزایش دهد:
    • شناسایی موجودیت‌های نام‌گذاری شده (NER): شناسایی نام اشخاص، سازمان‌ها و مکان‌ها، که اغلب به صورت گروه‌های اسمی ظاهر می‌شوند. بخش‌بندی دقیق‌تر، به NER کمک می‌کند تا مرزهای موجودیت‌ها را با دقت بیشتری تشخیص دهد. به عنوان مثال، در جمله “دیدار رئیس‌جمهور ایران با همتای ترکیه‌ای خود”، بخش‌بندی صحیح “رئیس‌جمهور ایران” به عنوان یک گروه اسمی، برای شناسایی آن به عنوان یک موجودیت مهم است.
    • استخراج اطلاعات (Information Extraction): استخراج الگوها و داده‌های خاص از متن. بخش‌بندی به شناسایی عبارات کلیدی و روابط بین آن‌ها کمک می‌کند.
    • ترجمه ماشینی (Machine Translation): حفظ یکپارچگی گروه‌های کلمات (بخش‌ها) در حین ترجمه برای تولید ترجمه‌های طبیعی‌تر و دقیق‌تر ضروری است.
    • خلاصه‌سازی متن (Text Summarization): با شناسایی بخش‌های کلیدی جمله، می‌توان جملات و ایده‌های اصلی را بهتر استخراج و خلاصه‌سازی کرد.
  • پیشبرد نظریه زبان‌شناسی: مشاهده پدیده گذرا بودن ساختار بخش‌بندی در طول آموزش، بینش‌های جدیدی در مورد چگونگی یادگیری و نمایش ساختارهای زبانی توسط شبکه‌های عصبی ارائه می‌دهد. این امر می‌تواند منجر به فرضیه‌های جدید در مورد اکتساب زبان انسان و همچنین در مورد نحوه مدل‌سازی سلسله‌مراتب زبانی در مدل‌های هوش مصنوعی شود. این پژوهش به زبان‌شناسان محاسباتی کمک می‌کند تا درک عمیق‌تری از اصول زیربنایی پردازش زبان توسط ماشین پیدا کنند.

به عنوان یک مثال عملی، تصور کنید در یک سیستم پرسش و پاسخ (Question Answering) فارسی، جمله “دانشجویان دانشگاه صنعتی شریف در پارک لاله پروژه جدیدشان را ارائه می‌دادند.” به سیستم داده می‌شود. یک بخش‌بندی خوب می‌تواند به درستی “دانشگاه صنعتی شریف” را به عنوان یک گروه اسمی (مکان)، “پارک لاله” را به عنوان یک گروه اسمی (مکان دیگر)، و “پروژه جدیدشان را ارائه می‌دادند” را به عنوان یک گروه فعلی شناسایی کند. این اطلاعات ساختاری، به سیستم کمک می‌کند تا به سوالاتی مانند “دانشجویان کدام دانشگاه؟” یا “چه کاری می‌کردند؟” با دقت بیشتری پاسخ دهد.

۷. نتیجه‌گیری

مقاله “بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی” گام مهمی در جهت کاهش وابستگی پردازش زبان طبیعی به داده‌های برچسب‌گذاری شده دستی و پیشبرد یادگیری بدون نظارت در این حوزه برمی‌دارد. این مطالعه با معرفی یک شبکه عصبی بازگشتی سلسله‌مراتبی (HRNN) دو لایه و یک فرآیند آموزش دو مرحله‌ای (شامل پیش‌آموزش بدون نظارت و تنظیم دقیق بر روی وظایف پایین‌دستی)، به نتایج بسیار مثبتی در بخش‌بندی زبان دست یافته است.

یافته‌های کلیدی شامل بهبود قابل توجهی در امتیاز F1 بخش‌بندی بر روی مجموعه داده CoNLL-2000 (تا ۶ واحد درصد نسبت به روش‌های پیشین بدون نظارت) و اثبات کارایی تنظیم دقیق بر روی وظایف پایین‌دستی است. علاوه بر این، مشاهده ماهیت گذرا بودن ساختار بخش‌بندی در طول آموزش برای وظایف پایین‌دستی، یک بینش عمیق و جالب را فراهم می‌کند که می‌تواند الهام‌بخش تحقیقات آتی در زمینه چگونگی نمایش و پردازش ساختارهای زبانی در مدل‌های عصبی باشد. این پدیده نشان می‌دهد که مدل‌ها ممکن است برای رسیدن به اهداف نهایی، نمایش‌های داخلی خود را پویا و منعطف نگه دارند.

کاربردهای این دستاوردها گسترده و چشمگیر است. از کاهش هزینه‌های توسعه و امکان فعال‌سازی ابزارهای NLP برای زبان‌های کم‌منبع گرفته تا بهبود عملکرد طیف وسیعی از وظایف پایین‌دستی مانند شناسایی موجودیت نام‌گذاری شده، استخراج اطلاعات و ترجمه ماشینی، این رویکرد پتانسیل زیادی برای تغییر نحوه تعامل ما با زبان از طریق ماشین را دارد. علاوه بر این، این پژوهش به عنوان یک مبنای مهم برای تحقیقات نظری در زبان‌شناسی محاسباتی عمل کرده و درک ما از چگونگی شکل‌گیری و تکامل ساختارهای زبانی در مدل‌های هوش مصنوعی را عمیق‌تر می‌سازد.

در آینده، می‌توان تحقیقات را بر روی کشف دلایل دقیق‌تر گذرا بودن ساختار بخش‌بندی متمرکز کرد و بررسی نمود که آیا این پدیده یک ویژگی ذاتی در یادگیری ساختارهای زبانی توسط شبکه‌های عصبی است یا خیر. همچنین، کاربرد این روش در سایر وظایف نحوی و معنایی بدون نظارت و ارزیابی عملکرد آن در زبان‌های مختلف، می‌تواند مسیرهای پژوهشی آینده را روشن‌تر سازد. در مجموع، این مقاله نه تنها یک گام عملی به جلو در بخش‌بندی بدون نظارت است، بلکه به بحث‌های بنیادین در مورد ماهیت نمایش زبان در هوش مصنوعی دامن می‌زند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله بخش‌بندی بدون نظارت با شبکه‌های عصبی بازگشتی سلسله‌مراتبی به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا