| عنوان مقاله به انگلیسی | Invariant Graph Learning Meets Information Bottleneck for Out-of-Distribution Generalization |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری گراف نامتغیر با گلوگاه اطلاعات برای تعمیم خارج از توزیع مواجه میشود |
| نویسندگان | Wenyu Mao, Jiancan Wu, Haoyang Liu, Yongduo Sui, Xiang Wang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 21 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Machine Learning,یادگیری ماشین , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 3 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 3 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 840,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Graph out-of-distribution (OOD) generalization remains a major challenge in graph learning since graph neural networks (GNNs) often suffer from severe performance degradation under distribution shifts. Invariant learning, aiming to extract invariant features across varied distributions, has recently emerged as a promising approach for OOD generation. Despite the great success of invariant learning in OOD problems for Euclidean data (i.e., images), the exploration within graph data remains constrained by the complex nature of graphs. Existing studies, such as data augmentation or causal intervention, either suffer from disruptions to invariance during the graph manipulation process or face reliability issues due to a lack of supervised signals for causal parts. In this work, we propose a novel framework, called Invariant Graph Learning based on Information bottleneck theory (InfoIGL), to extract the invariant features of graphs and enhance models’ generalization ability to unseen distributions. Specifically, InfoIGL introduces a redundancy filter to compress task-irrelevant information related to environmental factors. Cooperating with our designed multi-level contrastive learning, we maximize the mutual information among graphs of the same class in the downstream classification tasks, preserving invariant features for prediction to a great extent. An appealing feature of InfoIGL is its strong generalization ability without depending on supervised signal of invariance. Experiments on both synthetic and real-world datasets demonstrate that our method achieves state-of-the-art performance under OOD generalization for graph classification tasks. The source code is available at https://github.com/maowenyu-11/InfoIGL.
چکیده به فارسی (ترجمه ماشینی)
تعمیم نمودار خارج از توزیع (OOD) یک چالش مهم در یادگیری نمودار است زیرا شبکه های عصبی نمودار (GNN) اغلب از تخریب عملکرد شدید تحت تغییر توزیع رنج می برند.یادگیری ثابت ، با هدف استخراج ویژگی های ثابت در توزیع های متنوع ، اخیراً به عنوان یک رویکرد امیدوار کننده برای تولید OOD ظاهر شده است.علیرغم موفقیت بزرگ یادگیری ثابت در مشکلات OOD برای داده های اقلیدسی (یعنی تصاویر) ، اکتشاف در داده های نمودار با ماهیت پیچیده نمودارها محدود می شود.مطالعات موجود ، مانند تقویت داده ها یا مداخله علّی ، یا از اختلال در عدم تغییر در طی فرآیند دستکاری نمودار رنج می برند یا به دلیل عدم وجود سیگنال های نظارت شده برای قطعات علی ، با مشکلات قابلیت اطمینان روبرو می شوند.در این کار ، ما یک چارچوب جدید به نام یادگیری نمودار ثابت را بر اساس نظریه تنگنای اطلاعات (InfoIGL) ، برای استخراج ویژگی های ثابت نمودارها و تقویت توانایی تعمیم مدل ها در توزیع های غیب پیشنهاد می کنیم.به طور خاص ، Infoigl یک فیلتر افزونگی را برای فشرده سازی اطلاعات مربوط به کارگروه مربوط به عوامل محیطی معرفی می کند.همکاری با یادگیری متضاد چند سطحی طراحی شده ما ، ما اطلاعات متقابل را در بین نمودارهای همان کلاس در کارهای طبقه بندی پایین دست به حداکثر می رسانیم و ویژگی های ثابت را برای پیش بینی حفظ می کنیم.یکی از ویژگی های جذاب InfoIGL توانایی عمومی سازی قوی آن بدون بسته به سیگنال نظارت شده از عدم تغییر است.آزمایشات در هر دو مجموعه داده مصنوعی و در دنیای واقعی نشان می دهد که روش ما به عملکرد پیشرفته تحت تعمیم OOD برای کارهای طبقه بندی نمودار می رسد.کد منبع در https://github.com/maowenyu-11/infoigl در دسترس است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.