| عنوان مقاله به انگلیسی | RELIEF: Reinforcement Learning Empowered Graph Feature Prompt Tuning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله تسکین: یادگیری تقویتی، تنظیم سریع ویژگی گراف توانمند شده |
| نویسندگان | Jiapeng Zhu, Zichen Ding, Jianxiang Yu, Jiaqi Tan, Xiang Li, Weining Qian |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 17 |
| دسته بندی موضوعات | Machine Learning,یادگیری ماشین , |
| توضیحات | Submitted 6 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارائه شده در 6 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 680,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
The advent of the “pre-train, prompt” paradigm has recently extended its generalization ability and data efficiency to graph representation learning, following its achievements in Natural Language Processing (NLP). Initial graph prompt tuning approaches tailored specialized prompting functions for Graph Neural Network (GNN) models pre-trained with specific strategies, such as edge prediction, thus limiting their applicability. In contrast, another pioneering line of research has explored universal prompting via adding prompts to the input graph’s feature space, thereby removing the reliance on specific pre-training strategies. However, the necessity to add feature prompts to all nodes remains an open question. Motivated by findings from prompt tuning research in the NLP domain, which suggest that highly capable pre-trained models need less conditioning signal to achieve desired behaviors, we advocate for strategically incorporating necessary and lightweight feature prompts to certain graph nodes to enhance downstream task performance. This introduces a combinatorial optimization problem, requiring a policy to decide 1) which nodes to prompt and 2) what specific feature prompts to attach. We then address the problem by framing the prompt incorporation process as a sequential decision-making problem and propose our method, RELIEF, which employs Reinforcement Learning (RL) to optimize it. At each step, the RL agent selects a node (discrete action) and determines the prompt content (continuous action), aiming to maximize cumulative performance gain. Extensive experiments on graph and node-level tasks with various pre-training strategies in few-shot scenarios demonstrate that our RELIEF outperforms fine-tuning and other prompt-based approaches in classification performance and data efficiency.
چکیده به فارسی (ترجمه ماشینی)
ظهور پارادایم “پیش از رهبر ، سریع” اخیراً توانایی تعمیم و بهره وری داده خود را به دنبال دستاوردهای خود در پردازش زبان طبیعی (NLP) گسترش داده است.رویکردهای تنظیم سریع نمودار اولیه توابع تخصصی تخصصی برای مدل های شبکه عصبی نمودار (GNN) از قبل با استراتژی های خاص مانند پیش بینی لبه آموزش داده شده است ، بنابراین کاربرد آنها را محدود می کند.در مقابل ، یکی دیگر از تحقیقات پیشگامانه ، از طریق اضافه کردن ارسال ها به فضای ویژگی های نمودار ورودی ، فواید جهانی را مورد بررسی قرار داده و از این طریق اعتماد به استراتژی های خاص قبل از آموزش را از بین می برد.با این حال ، ضرورت اضافه کردن ویژگی های ویژگی به همه گره ها همچنان یک سوال باز است.با انگیزه یافته های تحقیقات تنظیم سریع در دامنه NLP ، که نشان می دهد مدلهای از قبل آموزش دیده بسیار توانمند برای دستیابی به رفتارهای مورد نظر به سیگنال تهویه کمتری نیاز دارند ، ما از استراتژیک استفاده می کنیم تا از ویژگی های لازم و سبک وزن به گره های نمودار خاصی برای تقویت عملکرد وظیفه پایین دست استفاده کنیم.این یک مشکل بهینه سازی ترکیبی را معرفی می کند ، و نیاز به یک خط مشی برای تصمیم گیری 1) کدام گره ها برای سریع و 2) چه ویژگی خاصی برای پیوستن به آن است.ما سپس با فریم کردن فرایند ادغام سریع به عنوان یک مشکل تصمیم گیری پی در پی ، مشکل را حل می کنیم و روش خود را برای تسکین پیشنهاد می کنیم ، که از یادگیری تقویت کننده (RL) برای بهینه سازی آن استفاده می کند.در هر مرحله ، عامل RL یک گره (عمل گسسته) را انتخاب می کند و محتوای سریع (عمل مداوم) را تعیین می کند ، با هدف حداکثر رساندن عملکرد تجمعی.آزمایش های گسترده در مورد کارهای نمودار و سطح گره با استراتژی های مختلف قبل از آموزش در سناریوهای چند شات نشان می دهد که تسکین ما از تنظیم دقیق و سایر رویکردهای مبتنی بر سریع در عملکرد طبقه بندی و راندمان داده ها بهتر است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |



نقد و بررسیها
هنوز بررسیای ثبت نشده است.