,

مقاله کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ
نویسندگان Mingxin Li, Richong Zhang, Zhijie Nie, Yongyi Mao
دسته‌بندی علمی Computation and Language,Machine Learning

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ

۱. معرفی مقاله و اهمیت آن

در حوزه پردازش زبان طبیعی (NLP)، یادگیری نمایش جمله (Sentence Representation Learning – SRL) به عنوان یک وظیفه اساسی و زیربنایی مطرح است. هدف SRL تولید بردارهای معنایی (embeddings) برای جملات است که قادر به الگوبرداری از معنای و روابط مفهومی آن‌ها باشند. این بردارهای عددی، سنگ بنای بسیاری از کاربردهای NLP، از جمله جستجوی معنایی، خلاصه‌سازی متن، پرسش و پاسخ و طبقه‌بندی متون، محسوب می‌شوند.

در سال‌های اخیر، یادگیری کنتراستی تعبیه جملات (Contrastive Learning of Sentence Embeddings – CSE) به دلیل عملکرد فوق‌العاده خود، به یکی از تکنیک‌های غالب در SRL تبدیل شده است. CSE با آموزش مدل برای نزدیک کردن نمایش جملات مشابه و دور کردن نمایش جملات نامشابه در فضای تعبیه، به نمایش‌های با کیفیت بالا دست می‌یابد. با این حال، یک پدیده چالش‌برانگیز و در عین حال جذاب در CSE وجود دارد: شکاف عملکردی قابل توجه بین روش‌های نظارت‌شده (Supervised) و بدون نظارت (Unsupervised). این شکاف در حالی مشاهده می‌شود که تنها تفاوت این دو رویکرد در نوع داده‌های آموزشی آن‌ها نهفته است.

روش‌های نظارت‌شده از داده‌هایی با برچسب‌های صریح (مانند جفت جملات مشابه/نامشابه) استفاده می‌کنند، در حالی که روش‌های بدون نظارت تلاش می‌کنند تا ساختارهای معنایی را تنها از داده‌های متنی بدون برچسب استخراج کنند. این مقاله با عنوان “کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ“، دقیقاً به بررسی و تلاش برای رفع این شکاف می‌پردازد. اهمیت این تحقیق در آن است که با بهبود عملکرد روش‌های بدون نظارت، نیاز به داده‌های برچسب‌دار گران‌قیمت و زمان‌بر را کاهش داده و راه را برای توسعه سیستم‌های NLP کارآمدتر و مقیاس‌پذیرتر هموار می‌کند. در دنیای واقعی، دسترسی به حجم عظیمی از داده‌های بدون برچسب به مراتب آسان‌تر است و بهبود توانایی مدل‌ها در یادگیری از این داده‌ها، پیشرفت چشمگیری در هوش مصنوعی محسوب می‌شود.

۲. نویسندگان و زمینه تحقیق

این مقاله حاصل تلاش‌های گروهی از محققان برجسته در زمینه هوش مصنوعی و پردازش زبان طبیعی است. نویسندگان این اثر شامل Mingxin Li، Richong Zhang، Zhijie Nie و Yongyi Mao هستند که همگی در دانشگاه‌ها و مراکز تحقیقاتی معتبر فعالیت دارند. این تحقیق در دسته‌بندی‌های “محاسبات و زبان (Computation and Language)” و “یادگیری ماشین (Machine Learning)” قرار می‌گیرد که نشان‌دهنده ماهیت بین‌رشته‌ای و عمق علمی آن است.

پیش از این مقاله، تحقیقات زیادی بر روی یادگیری نمایش جمله انجام شده بود. کارهای قبلی، شکاف عملکردی بین CSE نظارت‌شده و بدون نظارت را به تفاوت در دو ویژگی نمایش مهم، یعنی هم‌راستایی (Alignment) و یکنواختی (Uniformity)، نسبت می‌دادند. هم‌راستایی به میزان نزدیکی بردارهای معنایی جملات مشابه اشاره دارد، در حالی که یکنواختی به پراکندگی یکنواخت بردارهای تعبیه در فضای برداری مربوط می‌شود. با این حال، نویسندگان این مقاله به درستی اشاره می‌کنند که این دو معیار تنها نتایج را اندازه‌گیری می‌کنند و قادر به پاسخگویی به سوالات بنیادی‌تری نیستند:

  • “چه جنبه‌هایی از داده‌های آموزشی به این شکاف عملکردی کمک می‌کنند؟”
  • “چگونه می‌توان این شکاف عملکردی را کاهش داد؟”

این مقاله با طرح این سوالات اساسی، به دنبال ارائه تحلیل عمیق‌تری از علل ریشه‌ای شکاف و پیشنهاد راه‌حل‌های عملی برای آن است. این رویکرد، زمینه تحقیق را از صرفاً اندازه‌گیری پدیده‌ها به سمت درک مکانیسم‌های زیربنایی و مهندسی راه‌حل‌های نوین سوق می‌دهد.

۳. چکیده و خلاصه محتوا

مقاله حاضر بر روی یک پدیده محوری در یادگیری کنتراستی تعبیه جملات (CSE) تمرکز دارد: شکاف قابل توجه عملکردی بین روش‌های نظارت‌شده و بدون نظارت، در حالی که تنها تفاوت آنها در داده‌های آموزشی است. همانطور که اشاره شد، مطالعات پیشین این شکاف را به تفاوت در ویژگی‌های هم‌راستایی و یکنواختی نسبت داده‌اند. اما این تحقیق استدلال می‌کند که این ویژگی‌ها فقط پیامدها را می‌سنجند و به سوالات اساسی‌تر درباره “چه چیزی” (What) و “چگونه” (How) مربوط به داده‌های آموزشی پاسخ نمی‌دهند.

این پژوهش با انجام آزمایش‌های تجربی گسترده، به دنبال یافتن پاسخ این سوالات است:

  1. پاسخ به سوال “چه چیزی”: نویسندگان با مقایسه دقیق رفتار CSE نظارت‌شده و بدون نظارت در طول فرآیند آموزش، به دنبال ریشه‌یابی این شکاف هستند. آنها الگوی شباهت (similarity pattern) در داده‌های آموزشی را به عنوان یک عامل کلیدی در ایجاد این شکاف شناسایی می‌کنند. برای اندازه‌گیری پیچیدگی این الگو، معیار جدیدی به نام دشواری نسبی برازش (Relative Fitting Difficulty – RFD) معرفی می‌شود. RFD به ما کمک می‌کند تا میزان پیچیدگی روابط معنایی در داده‌ها را که مدل باید یاد بگیرد، کمی‌سازی کنیم. به عنوان مثال، در داده‌های نظارت‌شده، الگوهای شباهت معمولاً واضح و ساختاریافته هستند، در حالی که در داده‌های بدون نظارت، مدل باید این الگوها را خودش کشف کند که دشواری بیشتری دارد.
  2. پاسخ به سوال “چگونه”: بر اساس بینش‌های به دست آمده از سوال “چه چیزی”، نویسندگان برای کاهش شکاف، پیچیدگی الگو در داده‌های آموزشی را افزایش می‌دهند. این کار با بهره‌گیری از قابلیت یادگیری درون‌متنی (In-Context Learning – ICL) مدل‌های زبانی بزرگ (Large Language Models – LLM) انجام می‌شود. LLM‌ها قادرند داده‌هایی را تولید کنند که الگوهای پیچیده و سلسله‌مراتبی را شبیه‌سازی می‌کنند. با استفاده از این الگوهای سلسله‌مراتبی در داده‌های تولیدشده توسط LLM، این تحقیق به طور موثری شکاف بین CSE نظارت‌شده و بدون نظارت را کاهش می‌دهد. این بدان معناست که با تزریق الگوهای پیچیده‌تر و غنی‌تر معنایی به داده‌های آموزشی بدون نظارت، می‌توان عملکرد آنها را به سطح روش‌های نظارت‌شده نزدیک‌تر کرد.

کدها و ضمائم این تحقیق نیز به صورت عمومی در گیت‌هاب منتشر شده‌اند تا قابلیت بازتولید و ادامه تحقیقات بر پایه آن فراهم شود.

۴. روش‌شناسی تحقیق

این مقاله از یک رویکرد دو مرحله‌ای جامع برای پاسخ به سوالات “چه چیزی” و “چگونه” بهره می‌برد:

۴.۱. پاسخ به سوال “چه چیزی”: شناسایی عامل اصلی شکاف

محققان در ابتدا بر روی درک عمیق‌تر تفاوت‌های اساسی بین CSE نظارت‌شده و بدون نظارت در طول فرآیند آموزش تمرکز کردند. آنها آزمایش‌های تجربی دقیقی را طراحی کردند تا رفتار این دو نوع مدل را زیر نظر بگیرند. این آزمایش‌ها شامل:

  • مقایسه دینامیک آموزش: تحلیل چگونگی تغییر بردارهای تعبیه (embeddings) و توزیع آنها در فضای برداری در طول ایپاک‌های مختلف آموزش برای هر دو رویکرد. این کار به شناسایی لحظاتی که تفاوت‌ها آشکارتر می‌شوند، کمک می‌کند.
  • بررسی ساختار فضای تعبیه: اندازه‌گیری ویژگی‌هایی مانند فشردگی (compactness) خوشه‌های معنایی و جدایی (separability) بین خوشه‌ها برای جملات مشابه و نامشابه در هر دو مدل.
  • شناسایی “الگوی شباهت”: بر اساس این تحلیل‌ها، نویسندگان به این نتیجه رسیدند که “الگوی شباهت”، یعنی ساختار روابط معنایی بین جملات در داده‌های آموزشی، عامل اصلی تفاوت عملکردی است. در داده‌های نظارت‌شده، این الگوها معمولاً از پیش تعریف شده و واضح هستند (مثلاً، “جمله A و B مترادف هستند” یا “جمله C و D نامرتبط هستند”). اما در داده‌های بدون نظارت، مدل باید این الگوها را خودش از طریق بافت (context) و ساختار زبان کشف کند که ذاتاً دشوارتر است.
  • معرفی معیار RFD: برای کمی‌سازی دشواری یادگیری این الگوهای شباهت، معیار جدیدی به نام دشواری نسبی برازش (Relative Fitting Difficulty – RFD) معرفی شد. RFD به طور اساسی میزان پیچیدگی مورد نیاز برای مدل جهت “برازش” به الگوهای شباهت موجود در داده‌ها را اندازه‌گیری می‌کند. به عبارت دیگر، هرچه الگوهای شباهت در داده‌ها غنی‌تر و پیچیده‌تر باشند، RFD بالاتر خواهد بود و مدل برای یادگیری موفقیت‌آمیز، باید ظرفیت بیشتری برای درک این پیچیدگی‌ها داشته باشد.

۴.۲. پاسخ به سوال “چگونه”: افزایش پیچیدگی الگو در داده‌ها

پس از شناسایی الگوی شباهت به عنوان عامل کلیدی، گام بعدی ایجاد روشی برای افزایش پیچیدگی این الگو در داده‌های آموزشی بدون نظارت بود. این کار با استفاده از پتانسیل مدل‌های زبانی بزرگ (LLM) انجام شد:

  • استفاده از یادگیری درون‌متنی (ICL) LLM: نویسندگان از قابلیت ICL مدل‌های زبانی بزرگ استفاده کردند. ICL به LLM اجازه می‌دهد تا با دریافت چند مثال (prompt)، الگوهای خاصی را فراگرفته و سپس بر اساس آن الگوها، خروجی‌های جدیدی تولید کند. این قابلیت به LLM امکان می‌دهد تا داده‌هایی با پیچیدگی معنایی و ساختاری بالاتر تولید کند که نمونه‌های آن در داده‌های بدون نظارت سنتی کمتر یافت می‌شود.
  • تولید داده‌های با الگوهای سلسله‌مراتبی: LLM‌ها قادرند نه تنها جملات مترادف ساده، بلکه جملاتی را تولید کنند که دارای روابط معنایی پیچیده‌تر و سلسله‌مراتبی هستند. برای مثال، به جای تولید صرفاً دو جمله که معنای یکسانی دارند، LLM می‌تواند جملاتی را تولید کند که یکی تعمیم‌دهنده دیگری است، یا یکی جنبه‌ای خاص از دیگری را توضیح می‌دهد، یا حتی روابط علت و معلولی یا فرضیه و نتیجه‌گیری را شبیه‌سازی کند. این الگوهای سلسله‌مراتبی (مانند استخراج مفهوم کلی از جزئیات، یا برعکس) به مدل بدون نظارت کمک می‌کنند تا نمایش‌های جمله‌ای غنی‌تری یاد بگیرد که قادر به تفکیک ظرایف معنایی هستند.
  • شبیه‌سازی الگوهای پیچیده: با هدایت LLM از طریق پرامپت‌های مهندسی‌شده، محققان توانستند داده‌هایی را تولید کنند که الگوهای شباهت موجود در داده‌های نظارت‌شده را شبیه‌سازی می‌کنند. این داده‌های مصنوعی، که دارای پیچیدگی و غنای معنایی بیشتری هستند، سپس برای آموزش مدل CSE بدون نظارت به کار گرفته شدند.

با این رویکرد نوآورانه، این تحقیق توانست نشان دهد که چگونه می‌توان با “مهندسی” داده‌های آموزشی (به جای صرفاً جمع‌آوری بیشتر)، عملکرد مدل‌های بدون نظارت را به طور قابل توجهی بهبود بخشید.

۵. یافته‌های کلیدی

نتایج حاصل از این تحقیق، بینش‌های مهمی را در مورد شکاف عملکردی بین یادگیری نمایش جمله نظارت‌شده و بدون نظارت ارائه می‌دهد و راهبردی موثر برای کاهش آن پیشنهاد می‌کند:

  • نقش محوری الگوی شباهت: اصلی‌ترین یافته این تحقیق این است که “الگوی شباهت” موجود در داده‌های آموزشی، عامل اصلی و ریشه‌ای تفاوت عملکردی بین CSE نظارت‌شده و بدون نظارت است. مدل‌های نظارت‌شده به واسطه برچسب‌ها، از الگوهای شباهت صریح و ساختاریافته بهره می‌برند، در حالی که مدل‌های بدون نظارت باید این الگوها را به صورت خودکار و از بافت داده استخراج کنند که ذاتاً دشوارتر است.
  • معیار RFD به عنوان ابزار اندازه‌گیری: معرفی دشواری نسبی برازش (RFD) یک دستاورد روش‌شناختی مهم است. این معیار به محققان اجازه می‌دهد تا پیچیدگی الگوهای شباهت در مجموعه داده‌ها را به طور کمی ارزیابی کنند. آزمایش‌ها نشان دادند که داده‌هایی با RFD بالاتر، برای مدل‌های بدون نظارت چالش‌برانگیزتر هستند و این معیار به خوبی تفاوت‌های موجود را برجسته می‌کند. این ابزار جدید، راه را برای تحلیل‌های دقیق‌تر در آینده باز می‌کند.
  • توانایی LLM در تولید داده‌های پیچیده: یکی از یافته‌های چشمگیر، اثبات کارایی مدل‌های زبانی بزرگ (LLM)، به ویژه از طریق قابلیت یادگیری درون‌متنی (ICL)، در تولید داده‌های آموزشی با پیچیدگی الگوی بالا است. LLM‌ها توانستند جملاتی با روابط معنایی غنی و سلسله‌مراتبی تولید کنند که برای مدل‌های CSE بدون نظارت بسیار سودمند بودند. برای مثال، اگر یک جمله در مورد “انرژی‌های تجدیدپذیر” باشد، LLM می‌تواند جملاتی تولید کند که به طور سلسله‌مراتبی به “انرژی خورشیدی”، “انرژی بادی” یا “تأثیرات زیست‌محیطی انرژی‌های تجدیدپذیر” اشاره دارند، که همگی زیرشاخه‌های مفهوم اصلی هستند.
  • کاهش موثر شکاف عملکردی: با استفاده از داده‌های تولید شده توسط LLM که دارای الگوهای سلسله‌مراتبی پیچیده هستند، این تحقیق موفق شد شکاف عملکردی بین CSE نظارت‌شده و بدون نظارت را به طور موثری کاهش دهد. این بدان معناست که عملکرد مدل‌های بدون نظارت آموزش‌دیده با این داده‌های غنی‌شده، به طور قابل ملاحظه‌ای به عملکرد مدل‌های نظارت‌شده نزدیک شد، بدون اینکه نیاز به برچسب‌گذاری دستی و پرهزینه باشد. این یک موفقیت بزرگ در راستای توسعه یادگیری نمایش جمله بدون نظارت است.

۶. کاربردها و دستاوردها

دستاوردهای این تحقیق دارای پیامدهای نظری و کاربردی گسترده‌ای در حوزه پردازش زبان طبیعی و یادگیری ماشین هستند:

۶.۱. دستاوردهای نظری:

  • درک عمیق‌تر از شکاف: این مقاله به جای صرفاً مشاهده شکاف عملکردی، به ریشه‌یابی آن می‌پردازد و “الگوی شباهت” را به عنوان عامل کلیدی معرفی می‌کند. این بینش، درک ما را از نحوه یادگیری مدل‌های کنتراستی بهبود می‌بخشد و مسیرهای جدیدی برای تحقیقات آتی باز می‌کند.
  • معیار جدید RFD: معرفی دشواری نسبی برازش (RFD) ابزاری جدید برای تحلیل و ارزیابی پیچیدگی داده‌های آموزشی فراهم می‌کند که می‌تواند در طراحی و بهینه‌سازی الگوریتم‌های یادگیری تعبیه جمله مورد استفاده قرار گیرد.
  • نقش LLM در سنتز داده: این تحقیق نشان می‌دهد که LLM‌ها نه تنها برای تولید متن یا پاسخ به سوالات، بلکه به عنوان ابزاری قدرتمند برای سنتز داده‌های آموزشی هدفمند، به ویژه برای بهبود یادگیری بدون نظارت، قابل استفاده هستند. این امر پتانسیل LLM‌ها را در اکوسیستم هوش مصنوعی گسترش می‌دهد.

۶.۲. کاربردهای عملی:

  • بهبود SRL بدون نظارت: مهمترین کاربرد، افزایش چشمگیر عملکرد یادگیری نمایش جمله بدون نظارت است. این به معنای توسعه سیستم‌های NLP با کیفیت بالا بدون نیاز به اتکای شدید به داده‌های برچسب‌دار است که جمع‌آوری و حاشیه‌نویسی آن‌ها زمان‌بر و گران‌قیمت است.
  • کاهش هزینه‌ها و زمان: با کاهش وابستگی به داده‌های نظارت‌شده، شرکت‌ها و محققان می‌توانند هزینه‌های توسعه و زمان لازم برای استقرار سیستم‌های NLP را به میزان قابل توجهی کاهش دهند. این امر برای سازمان‌هایی با منابع محدود یا در حوزه‌هایی که داده‌های برچسب‌دار کمیاب هستند، بسیار مفید است.
  • کاربرد در حوزه‌های مختلف NLP:
    • بازیابی اطلاعات و جستجوی معنایی: بهبود کیفیت بردارهای جمله منجر به نتایج جستجوی دقیق‌تر و مرتبط‌تر می‌شود، حتی زمانی که عبارات دقیقاً منطبق نباشند.
    • پرسش و پاسخ: توانایی درک بهتر شباهت معنایی جملات، به سیستم‌های پرسش و پاسخ کمک می‌کند تا پاسخ‌های دقیق‌تری را از متون استخراج و ارائه دهند.
    • خلاصه‌سازی و تولید متن: با نمایش‌های جمله‌ای قوی‌تر، مدل‌ها می‌توانند اطلاعات کلیدی را بهتر شناسایی کرده و خلاصه‌های منسجم‌تر و مرتبط‌تری تولید کنند.
    • تشخیص تکراری بودن متون و کشف سرقت ادبی: امکان مقایسه دقیق‌تر معنایی جملات، ابزارهای قوی‌تری برای تشخیص تکرار یا شباهت‌های پنهان در متون فراهم می‌کند.
  • مقیاس‌پذیری: این روش با تکیه بر LLM‌ها برای تولید داده و سپس آموزش مدل‌های CSE، به سیستم‌ها اجازه می‌دهد تا به راحتی بر روی مجموعه‌های داده بزرگ و بدون برچسب مقیاس‌پذیر شوند.

در نهایت، این پژوهش یک گام مهم به سوی ساخت سیستم‌های هوش مصنوعی زبانی است که می‌توانند به طور خودکار و کارآمد از داده‌های متنی گسترده و موجود در جهان واقعی یاد بگیرند.

۷. نتیجه‌گیری

مقاله “کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ” به یک چالش اساسی و دیرینه در حوزه پردازش زبان طبیعی، یعنی شکاف عملکردی بین رویکردهای نظارت‌شده و بدون نظارت در یادگیری کنتراستی تعبیه جملات (CSE)، پرداخته است. این تحقیق با تحلیل‌های عمیق و نوآورانه، تنها به مشاهده این پدیده اکتفا نکرده، بلکه به دنبال ریشه‌یابی و ارائه راهکاری عملی برای آن بوده است.

نویسندگان با پاسخگویی به سوال “چه چیزی”، “الگوی شباهت” موجود در داده‌های آموزشی را به عنوان عامل اصلی این شکاف شناسایی کرده و معیار جدید دشواری نسبی برازش (RFD) را برای اندازه‌گیری پیچیدگی این الگو معرفی نمودند. این کشف، بینش جدیدی به مکانیسم‌های یادگیری مدل‌های تعبیه جمله اضافه می‌کند.

سپس، در پاسخ به سوال “چگونه”، راهبردی هوشمندانه را برای افزایش پیچیدگی الگوی شباهت در داده‌های آموزشی بدون نظارت ارائه دادند. این راهبرد شامل بهره‌گیری از قابلیت یادگیری درون‌متنی (ICL) مدل‌های زبانی بزرگ (LLM) برای تولید داده‌هایی با الگوهای سلسله‌مراتبی غنی و پیچیده بود. نتایج آزمایش‌ها به وضوح نشان داد که استفاده از این داده‌های تولید شده توسط LLM، شکاف عملکردی بین CSE نظارت‌شده و بدون نظارت را به طور موثری کاهش می‌دهد.

این تحقیق نه تنها به درک عمیق‌تر ما از یادگیری نمایش جمله کمک می‌کند، بلکه راهکارهای عملی و مقیاس‌پذیری را برای توسعه سیستم‌های NLP کارآمدتر ارائه می‌دهد. با کاهش وابستگی به داده‌های برچسب‌دار و ارتقاء توانایی مدل‌ها در یادگیری از داده‌های بدون نظارت، این دستاورد می‌تواند پیامدهای گسترده‌ای برای آینده پردازش زبان طبیعی و کاربردهای آن در حوزه‌های مختلف، از جستجو و خلاصه‌سازی تا پرسش و پاسخ، داشته باشد.

در نهایت، این مقاله بر اهمیت استراتژی‌های نوآورانه در تولید داده و نقش محوری LLM‌ها نه تنها به عنوان مصرف‌کننده اطلاعات، بلکه به عنوان مولدین داده‌های آموزشی هوشمند تأکید می‌کند. این گام، پیشرفتی مهم در راستای دستیابی به هوش مصنوعی عمومی‌تر و کارآمدتر در فهم و تولید زبان طبیعی محسوب می‌شود.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله کاهش شکاف میان یادگیری نمایش جمله نظارت‌شده و بدون نظارت با مدل زبانی بزرگ به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا