,

مقاله Zero-Shot Continuous Prompt Transfer: Generalizing Task Semantics Across Language Models به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله Zero-Shot Continuous Prompt Transfer: Generalizing Task Semantics Across Language Models
نویسندگان Zijun Wu, Yongkang Wu, Lili Mou
دسته‌بندی علمی Computation and Language,Artificial Intelligence

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

انتقال پرامپت پیوسته Zero-Shot: تعمیم معناشناسی وظیفه در مدل‌های زبان

معرفی مقاله و اهمیت آن

در سال‌های اخیر، با پیشرفت چشمگیر مدل‌های زبان بزرگ (LLMs)، روش‌های مختلفی برای تطبیق این مدل‌ها با وظایف خاص پردازش زبان طبیعی (NLP) توسعه یافته‌اند. یکی از موثرترین و پرطرفدارترین این روش‌ها، تنظیم پرامپت (Prompt Tuning) است. به جای تنظیم دقیق تمام پارامترهای مدل (Fine-Tuning)، که نیازمند منابع محاسباتی زیادی است، تنظیم پرامپت شامل بهینه‌سازی یک ورودی کوچک (پرامپت) است که به مدل ارائه می‌شود تا عملکرد آن را در یک وظیفه خاص بهبود بخشد. این پرامپت‌ها می‌توانند گسسته (متن‌های قابل فهم انسانی) یا پیوسته (بردارهای عددی غیرقابل تفسیر مستقیم) باشند.

با این حال، یک چالش اساسی در زمینه تنظیم پرامپت، به ویژه در مورد پرامپت‌های پیوسته، قابلیت انتقال آن‌ها بین مدل‌های زبانی مختلف است. یک پرامپت پیوسته که با دقت برای یک مدل خاص بهینه‌سازی شده است، ممکن است هنگام اعمال به مدل دیگری کارایی خود را از دست بدهد. این عدم قابلیت انتقال، مانعی جدی برای استفاده گسترده‌تر و کارآمدتر از پرامپت‌ها ایجاد می‌کند، زیرا توسعه‌دهندگان را مجبور می‌سازد که برای هر مدل جدید، فرایند بهینه‌سازی پرامپت را از ابتدا تکرار کنند. این مسئله نه تنها زمان‌بر و پرهزینه است، بلکه با هدف اصلی پرامپت‌تنینگ که سادگی و کارایی در تطبیق مدل‌هاست، در تضاد است.

مقاله حاضر با عنوان Zero-Shot Continuous Prompt Transfer: Generalizing Task Semantics Across Language Models به طور خاص به این چالش می‌پردازد و یک راه حل نوآورانه برای انتقال پرامپت پیوسته به روش Zero-Shot ارائه می‌دهد. اهمیت این پژوهش در آن است که با ارائه روشی برای تعمیم معناشناسی وظایف از طریق پرامپت‌های پیوسته بین مدل‌های مختلف، امکان استفاده مجدد از پرامپت‌های بهینه‌شده را فراهم می‌کند. این دستاورد می‌تواند به طور چشمگیری هزینه‌های محاسباتی و زمانی لازم برای تطبیق مدل‌های زبان بزرگ با وظایف جدید را کاهش داده و روند توسعه سیستم‌های مبتنی بر NLP را تسریع بخشد.

نویسندگان و زمینه تحقیق

این مقاله توسط زیجون وو (Zijun Wu)، یونگ‌کانگ وو (Yongkang Wu) و لیلی مو (Lili Mou) نگاشته شده است. این محققان در زمینه پردازش زبان طبیعی (NLP) و هوش مصنوعی (AI) فعالیت می‌کنند، که از جمله پویاترین و پیشرفته‌ترین حوزه‌های علوم کامپیوتر در دهه‌های اخیر محسوب می‌شوند. پیشینه تحقیقاتی این نویسندگان، به ویژه در زمینه مدل‌های زبان، تنظیم پرامپت و روش‌های یادگیری تطبیقی، به آن‌ها این امکان را داده است تا به یکی از مشکلات کلیدی در این حوزه، یعنی انتقال‌پذیری پرامپت‌ها، بپردازند.

زمینه‌های محاسبات و زبان (Computation and Language) و هوش مصنوعی (Artificial Intelligence) طی چند سال گذشته با ظهور مدل‌های زبان ترانسفورمر-محور (Transformer-based LLMs) نظیر GPT-3, BERT, T5 و Llama دستخوش تحولات عظیمی شده‌اند. این مدل‌ها که بر روی حجم عظیمی از داده‌های متنی آموزش دیده‌اند، قابلیت‌های بی‌سابقه‌ای در درک، تولید و استدلال زبانی از خود نشان می‌دهند. با این حال، استفاده از آن‌ها برای وظایف خاص معمولاً نیازمند یک مرحله تطبیق است. روش‌های سنتی تنظیم دقیق (Fine-tuning)، اگرچه موثرند، اما منابع محاسباتی زیادی مصرف می‌کنند و برای هر وظیفه یا مجموعه داده جدید، باید مدل را مجدداً آموزش داد.

در واکنش به این محدودیت‌ها، مهندسی پرامپت (Prompt Engineering) و به خصوص تنظیم پرامپت (Prompt Tuning) به عنوان جایگزین‌های کارآمد مطرح شدند. به جای تغییر پارامترهای میلیون‌ها یا میلیاردها مدل، این روش‌ها بر بهینه‌سازی چند صد تا چند هزار پارامتر کوچک (که پرامپت را تشکیل می‌دهند) متمرکز می‌شوند. پرامپت‌های پیوسته، به دلیل ماهیت انعطاف‌پذیر خود و عدم نیاز به طراحی دستی، جذابیت ویژه‌ای پیدا کرده‌اند. این پژوهش دقیقاً در مرز دانش این حوزه قرار می‌گیرد و سعی دارد با حل مسئله انتقال‌پذیری پرامپت‌های پیوسته، افق‌های جدیدی برای استفاده بهینه‌تر از مدل‌های زبان بزرگ بگشاید.

چکیده و خلاصه محتوا

چکیده مقاله به وضوح مشکل و راه حل پیشنهادی را بیان می‌کند. در هسته اصلی، مقاله به این موضوع می‌پردازد که تنظیم پرامپت، با وجود محبوبیت فزاینده‌اش در تطبیق مدل‌های زبان بزرگ با وظایف خاص NLP، با چالش انتقال‌پذیری پرامپت‌ها، به ویژه پرامپت‌های پیوسته، بین مدل‌های مختلف روبروست. این بدان معناست که پرامپتی که برای مدل A بهینه شده، به احتمال زیاد بر روی مدل B عملکرد مطلوبی نخواهد داشت.

برای غلبه بر این محدودیت، نویسندگان یک روش انتقال پرامپت پیوسته Zero-Shot را پیشنهاد می‌کنند. اصطلاح “Zero-Shot” در اینجا به این معنی است که انتقال بدون نیاز به هیچ گونه داده آموزشی جدید یا تنظیم مجدد برای مدل مقصد (target model) انجام می‌شود. این یک مزیت بزرگ است، زیرا نیاز به جمع‌آوری و برچسب‌گذاری داده‌های جدید را از بین می‌برد، که خود فرایندی زمان‌بر و پرهزینه است.

خلاصه روش به این صورت است: ابتدا، پرامپت‌های منبع (source prompts) که برای یک مدل خاص بهینه‌سازی شده‌اند، در یک فضای نسبی (relative space) کدگذاری می‌شوند. این فضای نسبی به جای مقادیر مطلق پرامپت، معناشناسی وظیفه (task semantics) یا عملکرد و هدف اصلی پرامپت را به گونه‌ای انتزاعی ثبت می‌کند که کمتر به معماری یا پارامترهای خاص مدل منبع وابسته باشد. سپس، با استفاده از این نمایش نسبی، پرامپت‌های هدف مربوطه برای انتقال به مدل‌های هدف (target models) جستجو می‌شوند. این جستجو به دنبال پرامپتی است که همان معناشناسی وظیفه را در مدل هدف القا کند.

نتایج آزمایشگاهی به وضوح اثربخشی این روش را تأیید می‌کنند. یافته کلیدی این است که “معناشناسی وظیفه” که در پرامپت‌های پیوسته رمزگذاری شده است، می‌تواند در مدل‌های زبانی مختلف تعمیم یابد. این بدان معناست که ماهیت و هدف یک وظیفه (مثلاً طبقه‌بندی احساسات یا استخراج موجودیت) را می‌توان از طریق پرامپت‌های پیوسته به گونه‌ای بیان کرد که برای چندین مدل مختلف قابل درک و پیاده‌سازی باشد. علاوه بر این، پژوهشگران کشف کردند که ترکیب “معناشناسی وظیفه” از چندین مدل منبع می‌تواند قابلیت تعمیم انتقال را بیشتر افزایش دهد. این پیشنهاد می‌کند که با نگاه کردن به یک وظیفه از طریق لنزهای چند مدل مختلف، می‌توان یک نمایش قوی‌تر و کلی‌تر از آن معناشناسی وظیفه به دست آورد که برای مدل‌های هدف جدید مفیدتر باشد.

روش‌شناسی تحقیق

روش‌شناسی تحقیق در این مقاله بر محوریت مفهوم انتقال پرامپت پیوسته Zero-Shot استوار است. هدف اصلی، یافتن راهی برای انتقال کارایی یک پرامپت پیوسته از یک مدل زبانی (مدل منبع) به مدلی دیگر (مدل هدف) بدون نیاز به تنظیم مجدد یا آموزش بر روی داده‌های جدید برای مدل هدف است. این امر با دو گام کلیدی محقق می‌شود:

  • کدگذاری پرامپت‌های منبع در فضای نسبی:

    نویسندگان فرض می‌کنند که هر پرامپت پیوسته، علاوه بر مقادیر عددی خود، دارای یک معناشناسی وظیفه پنهان است که هدف آن پرامپت را (مثلاً طبقه‌بندی احساسات مثبت) در فضای نهفته مدل بیان می‌کند. چالش اینجاست که این معناشناسی به صورت مستقیم قابل انتقال نیست زیرا به وزن‌ها و معماری خاص مدل منبع گره خورده است. برای حل این مشکل، آن‌ها یک “فضای نسبی” را معرفی می‌کنند. این فضای نسبی، تفاوت بین وضعیت‌های داخلی مدل را در حضور پرامپت و بدون آن، یا در حضور پرامپت‌های مختلف، ثبت می‌کند. به عنوان مثال، اگر پرامپت A باعث شود مدل ورودی را به سمت “احساسات مثبت” سوق دهد و پرامپت B به سمت “احساسات منفی”، فضای نسبی این “جهت‌گیری” یا “جابجایی” معنایی را بدون وابستگی به مقادیر دقیق بردار پرامپت، رمزگذاری می‌کند.

    این کدگذاری شامل استخراج اطلاعاتی است که کمتر به جزئیات مدل خاص وابسته است و بیشتر بر روی تأثیر عملکردی پرامپت بر روی نمایش‌های داخلی مدل (internal representations) تمرکز دارد. می‌توان تصور کرد که این روش سعی می‌کند الگویی از تغییرات در فضای نهفته مدل را که توسط پرامپت ایجاد می‌شود، یاد بگیرد. این الگو، به جای خود پرامپت، قابل انتقال است.

  • جستجو برای پرامپت‌های هدف متناظر:

    پس از اینکه معناشناسی وظیفه به صورت نسبی کدگذاری شد، گام بعدی یافتن یک پرامپت پیوسته مناسب برای مدل هدف است که همان معناشناسی را در فضای داخلی مدل هدف ایجاد کند. این فرایند به جای یک تبدیل مستقیم، به نوعی بهینه‌سازی یا جستجو تبدیل می‌شود. با استفاده از نمایش نسبی معناشناسی وظیفه از مدل منبع، یک پرامپت اولیه برای مدل هدف تولید یا به صورت تصادفی آغاز می‌شود و سپس با یک فرایند بهینه‌سازی، این پرامپت تنظیم می‌شود تا بهترین مطابقت را با معناشناسی نسبی مورد نظر در مدل هدف پیدا کند. این بهینه‌سازی بدون نیاز به داده‌های برچسب‌گذاری شده برای مدل هدف صورت می‌گیرد، بلکه صرفاً با ارزیابی چگونگی تغییر نمایش‌های داخلی مدل هدف توسط پرامپت کاندید، نسبت به نمایش‌های نسبی استخراج شده از مدل منبع، انجام می‌شود.

    این گام می‌تواند شامل معیارهای شباهت در فضای نهفته مدل یا استفاده از روش‌های مبتنی بر گرادیان (Gradient-based methods) باشد که هدفشان به حداقل رساندن فاصله بین تأثیر پرامپت جدید بر مدل هدف و تأثیر پرامپت منبع بر مدل منبع در فضای نسبی مشترک است.

برای اثبات کارایی روش خود، نویسندگان آزمایش‌های گسترده‌ای را روی چندین مجموعه داده NLP و مدل‌های زبان مختلف انجام دادند. این آزمایش‌ها شامل ارزیابی عملکرد مدل هدف با پرامپت منتقل شده در وظایفی مانند تحلیل احساسات، استنتاج زبان طبیعی (NLI) و طبقه‌بندی متن بود. معیارهای ارزیابی شامل دقت (Accuracy)، F1-score و دیگر معیارهای استاندارد در NLP بودند که به آن‌ها امکان مقایسه عملکرد پرامپت‌های منتقل‌شده با پرامپت‌های بهینه‌سازی‌شده بومی یا روش‌های پایه (baselines) را می‌داد.

یافته‌های کلیدی

نتایج حاصل از آزمایش‌های این مقاله، چندین یافته مهم و تأثیرگذار را به همراه داشته است که نشان‌دهنده پتانسیل بالای روش پیشنهادی است:

  • اثربخشی روش انتقال:

    مهمترین یافته این است که روش انتقال پرامپت پیوسته Zero-Shot پیشنهادی، به طور قابل توجهی مؤثر است. پرامپت‌های پیوسته‌ای که با این روش از مدل‌های منبع به مدل‌های هدف منتقل شده‌اند، توانسته‌اند عملکردی نزدیک به پرامپت‌های بهینه‌سازی‌شده بومی (که مستقیماً برای مدل هدف آموزش دیده‌اند) و در برخی موارد حتی بهتر از آن‌ها، ارائه دهند. این تأیید می‌کند که نیازی به شروع از صفر برای هر مدل جدید نیست و می‌توان از دانش نهفته در پرامپت‌های قبلی استفاده کرد.

  • تعمیم‌پذیری «معناشناسی وظیفه»:

    پژوهشگران به این نتیجه رسیده‌اند که «معناشناسی وظیفه» (task semantics)—یعنی جوهره عملکردی یا هدف یک پرامپت در هدایت مدل برای انجام یک وظیفه خاص—در پرامپت‌های پیوسته، قابلیت تعمیم‌پذیری بالایی در بین مدل‌های زبان مختلف دارد. این بدان معناست که ماهیت یک وظیفه (مثلاً شناسایی اسپم) را می‌توان به گونه‌ای در یک پرامپت پیوسته رمزگذاری کرد که برای معماری‌ها و مدل‌های مختلف قابل تفسیر و پیاده‌سازی باشد، حتی اگر نمایش‌های داخلی مدل‌ها متفاوت باشند. این مفهوم، سنگ بنای رویکرد آن‌هاست و نشان می‌دهد که پرامپت‌ها فراتر از تنظیمات پارامترهای خاص مدل، اطلاعات معنایی را حمل می‌کنند.

    به عنوان مثال، پرامپتی که مدل BERT را برای تشخیص نظرات مثبت آماده می‌کند، می‌تواند به گونه‌ای منتقل شود که مدل RoBERTa نیز همان توانایی را کسب کند، بدون اینکه RoBERTa نیاز به آموزش اولیه برای این وظیفه داشته باشد.

  • افزایش تعمیم‌پذیری با ترکیب منابع متعدد:

    یک کشف جالب دیگر این است که ترکیب «معناشناسی وظیفه» از چندین مدل منبع، می‌تواند قابلیت تعمیم‌پذیری انتقال را بیشتر افزایش دهد. به عبارت دیگر، اگر به جای استفاده از یک پرامپت از یک مدل منبع، از اطلاعات معنایی چندین پرامپت که برای همان وظیفه بر روی مدل‌های مختلف بهینه‌سازی شده‌اند، استفاده شود، پرامپت منتقل شده به مدل هدف عملکرد بهتری خواهد داشت. این نشان می‌دهد که هر مدل منبع ممکن است “جنبه” متفاوتی از معناشناسی وظیفه را به تصویر بکشد و ترکیب این جنبه‌ها منجر به یک فهم جامع‌تر و مقاوم‌تر از وظیفه می‌شود که برای مدل هدف جدید مفیدتر است.

این یافته‌ها نه تنها اعتبار روش پیشنهادی را اثبات می‌کنند، بلکه بینش‌های عمیقی را در مورد ماهیت معناشناسی در پرامپت‌های پیوسته و پتانسیل آن‌ها برای کاربردهای فراتر از تنظیمات تک‌مدلی ارائه می‌دهند. توانایی تعمیم معناشناسی وظیفه، گامی بزرگ به سوی ایجاد سیستم‌های NLP انعطاف‌پذیرتر و کارآمدتر است.

کاربردها و دستاوردها

دستاوردهای این پژوهش پیامدهای عملی و کاربردهای گسترده‌ای در زمینه توسعه و استقرار سیستم‌های مبتنی بر مدل‌های زبان بزرگ دارند. این روش نه تنها یک پیشرفت نظری است، بلکه راهگشای کاربردهای عملی متعددی است:

  • کاهش چشمگیر هزینه‌های محاسباتی و زمانی:

    مهمترین دستاورد، کاهش نیاز به تنظیم دقیق (Fine-Tuning) مدل‌های بزرگ برای هر وظیفه جدید است. تنظیم دقیق نیازمند سخت‌افزارهای قدرتمند (GPU/TPU) و زمان زیادی است. با انتقال Zero-Shot پرامپت‌ها، می‌توان مدل‌های جدید را بدون نیاز به بازآموزی گسترده، به سرعت با وظایف جدید تطبیق داد. این امر برای شرکت‌ها و محققانی که دسترسی محدودی به منابع محاسباتی دارند، بسیار ارزشمند است.

  • تسریع در توسعه و استقرار:

    تیم‌های توسعه می‌توانند با استفاده از این روش، مدل‌های زبان بزرگ را به سرعت برای وظایف تخصصی استقرار دهند. به عنوان مثال، یک شرکت که در حال توسعه یک چت‌بات برای خدمات مشتری است، می‌تواند پرامپت‌های بهینه‌سازی شده برای طبقه‌بندی سوالات یا استخراج اطلاعات را از یک مدل به مدل دیگر منتقل کند، بدون اینکه زمان زیادی را صرف تنظیم مجدد کند. این امر چرخه‌های توسعه را کوتاه و زمان ورود به بازار را کاهش می‌دهد.

  • کتابخانه‌های پرامپت قابل استفاده مجدد:

    این تحقیق می‌تواند راه را برای ایجاد کتابخانه‌هایی از پرامپت‌های پیوسته قابل انتقال هموار کند. به جای اینکه هر سازمان یا محقق پرامپت‌های خود را از ابتدا بسازد، می‌توان پرامپت‌های عمومی و اثبات‌شده را برای وظایف رایج (مانند خلاصه‌سازی، ترجمه، طبقه‌بندی) توسعه داد و آن‌ها را بین مدل‌ها به اشتراک گذاشت. این امر به معنای استانداردسازی و کارایی بیشتر در مهندسی پرامپت است.

  • افزایش دسترسی‌پذیری و دمکراتیزه کردن هوش مصنوعی:

    با کاهش موانع فنی و محاسباتی، افراد و سازمان‌های کوچک‌تر نیز می‌توانند به طور مؤثرتری از قدرت مدل‌های زبان بزرگ بهره‌مند شوند. این امر به دمکراتیزه شدن هوش مصنوعی کمک می‌کند، زیرا دیگر برای بهره‌برداری از LLMs نیازی به سرمایه‌گذاری‌های عظیم در زیرساخت‌های محاسباتی نیست.

  • درک عمیق‌تر از مدل‌های زبان:

    این تحقیق نه تنها یک روش عملی ارائه می‌دهد، بلکه بینش‌های نظری عمیقی در مورد نحوه عملکرد و تعمیم‌پذیری معناشناسی در مدل‌های زبان فراهم می‌کند. درک اینکه چگونه “معناشناسی وظیفه” می‌تواند از مدل‌های مختلف انتزاع و منتقل شود، به ما کمک می‌کند تا بهتر بفهمیم LLMs چگونه مفاهیم را درک و پردازش می‌کنند. این دانش می‌تواند الهام‌بخش تحقیقات آتی در معماری مدل‌ها و روش‌های یادگیری باشد.

در مجموع، این پژوهش گام مهمی در جهت افزایش کارایی، انعطاف‌پذیری و دسترسی‌پذیری مدل‌های زبان بزرگ است و به طور مستقیم بر نحوه تعامل ما با این فناوری‌های قدرتمند تأثیر می‌گذارد.

نتیجه‌گیری

مقاله Zero-Shot Continuous Prompt Transfer: Generalizing Task Semantics Across Language Models یک گام مهم و نوآورانه در زمینه پردازش زبان طبیعی و مدل‌های زبان بزرگ محسوب می‌شود. این پژوهش به چالش اساسی انتقال‌پذیری پرامپت‌های پیوسته بین مدل‌های زبانی مختلف می‌پردازد و یک راه حل کارآمد و اثبات‌شده ارائه می‌دهد.

نویسندگان با معرفی روش انتقال پرامپت پیوسته Zero-Shot، نشان دادند که می‌توان پرامپت‌های بهینه‌سازی‌شده را از یک مدل منبع به یک مدل هدف منتقل کرد، بدون اینکه نیازی به آموزش مجدد یا داده‌های برچسب‌گذاری شده برای مدل هدف باشد. این مهم از طریق کدگذاری پرامپت‌های منبع در یک فضای نسبی و سپس جستجو برای پرامپت‌های هدف متناظر با همان معناشناسی وظیفه در مدل جدید حاصل می‌شود.

یافته‌های کلیدی این پژوهش، قابلیت تعمیم‌پذیری معناشناسی وظیفه در پرامپت‌های پیوسته در مدل‌های مختلف را تأیید می‌کند. این بدان معناست که ماهیت عملکردی یک پرامپت می‌تواند فراتر از جزئیات فنی یک مدل خاص عمل کند و به مدل‌های دیگر نیز منتقل شود. علاوه بر این، کشف اینکه ترکیب معناشناسی وظیفه از چندین مدل منبع می‌تواند به بهبود بیشتر عملکرد منجر شود، بینش ارزشمندی در مورد قدرت تجمیع دانش از منابع مختلف ارائه می‌دهد.

پیامدهای عملی این تحقیق بسیار گسترده و تأثیرگذار هستند. این روش نه تنها به کاهش قابل توجه هزینه‌های محاسباتی و زمانی در تطبیق مدل‌های زبان کمک می‌کند، بلکه سرعت توسعه و استقرار سیستم‌های مبتنی بر هوش مصنوعی را نیز افزایش می‌دهد. همچنین، با ایجاد امکان ساخت کتابخانه‌های پرامپت قابل استفاده مجدد و دمکراتیزه کردن دسترسی به فناوری‌های پیشرفته LLM، این پژوهش می‌تواند به گسترش هرچه بیشتر کاربردهای هوش مصنوعی در صنایع و حوزه‌های مختلف کمک کند.

در نهایت، این مطالعه نه تنها یک ابزار قدرتمند جدید برای مهندسان و محققان NLP ارائه می‌دهد، بلکه درک ما را از معناشناسی پنهان در مدل‌های زبان بزرگ عمیق‌تر می‌سازد. کارهای آتی می‌تواند شامل بررسی این روش برای طیف وسیع‌تری از مدل‌ها و وظایف، و همچنین کاوش در مبانی نظری عمیق‌تر مفهوم “معناشناسی وظیفه” باشد.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله Zero-Shot Continuous Prompt Transfer: Generalizing Task Semantics Across Language Models به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا