| عنوان مقاله به انگلیسی | E-CGL: An Efficient Continual Graph Learner | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله E-CGL: یک یادگیرنده نمودار مداوم کارآمد | ||||||||
| نویسندگان | Jianhao Guo, Zixuan Ni, Yun Zhu, Siliang Tang | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 17 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , | ||||||||
| توضیحات | Submitted 18 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارائه شده در 18 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Continual learning has emerged as a crucial paradigm for learning from sequential data while preserving previous knowledge. In the realm of continual graph learning, where graphs continuously evolve based on streaming graph data, continual graph learning presents unique challenges that require adaptive and efficient graph learning methods in addition to the problem of catastrophic forgetting. The first challenge arises from the interdependencies between different graph data, where previous graphs can influence new data distributions. The second challenge lies in the efficiency concern when dealing with large graphs. To addresses these two problems, we produce an Efficient Continual Graph Learner (E-CGL) in this paper. We tackle the interdependencies issue by demonstrating the effectiveness of replay strategies and introducing a combined sampling strategy that considers both node importance and diversity. To overcome the limitation of efficiency, E-CGL leverages a simple yet effective MLP model that shares weights with a GCN during training, achieving acceleration by circumventing the computationally expensive message passing process. Our method comprehensively surpasses nine baselines on four graph continual learning datasets under two settings, meanwhile E-CGL largely reduces the catastrophic forgetting problem down to an average of -1.1%. Additionally, E-CGL achieves an average of 15.83x training time acceleration and 4.89x inference time acceleration across the four datasets. These results indicate that E-CGL not only effectively manages the correlation between different graph data during continual training but also enhances the efficiency of continual learning on large graphs. The code is publicly available at https://github.com/aubreygjh/E-CGL.
چکیده به فارسی (ترجمه ماشینی)
یادگیری مداوم به عنوان یک الگوی مهم برای یادگیری از داده های پی در پی در حالی که دانش قبلی را حفظ می کند ، ظاهر شده است.در حوزه یادگیری نمودار مداوم ، جایی که نمودارها به طور مداوم بر اساس داده های نمودار جریان تکامل می یابند ، یادگیری نمودار مداوم چالش های منحصر به فردی را ارائه می دهد که علاوه بر مشکل فراموشی فاجعه بار ، به روشهای یادگیری نمودار سازگار و کارآمد نیاز دارند.اولین چالش ناشی از وابستگی متقابل بین داده های مختلف نمودار است ، جایی که نمودارهای قبلی می توانند بر توزیع داده های جدید تأثیر بگذارند.چالش دوم در هنگام برخورد با نمودارهای بزرگ ، نگرانی کارآیی است.برای پرداختن به این دو مشکل ، ما در این مقاله یک یادگیرنده گرافیکی مداوم (E-CGL) تولید می کنیم.ما با نشان دادن اثربخشی استراتژی های پخش مجدد و معرفی یک استراتژی نمونه گیری ترکیبی که اهمیت گره و تنوع را در نظر می گیرد ، مسئله وابستگی متقابل را برطرف می کنیم.برای غلبه بر محدودیت کارآیی ، E-CGL یک مدل MLP ساده و در عین حال مؤثر را به اشتراک می گذارد که وزن خود را با GCN در طول آموزش به اشتراک می گذارد و با دور زدن فرآیند عبور پیام محاسباتی گران قیمت ، به شتاب می رسد.روش ما به طور جامع از نه خط پایه در چهار مجموعه داده یادگیری مداوم در زیر دو تنظیمات پیشی می گیرد ، در عین حال E -CGL تا حد زیادی مشکل فراموشی فاجعه بار را به طور متوسط -1.1 ٪ کاهش می دهد.علاوه بر این ، E-CGL به طور متوسط شتاب زمان آموزش 15.83 برابر و شتاب زمان استنتاج 4.89x در چهار مجموعه داده به دست می آید.این نتایج نشان می دهد که E-CGL نه تنها به طور مؤثر ارتباط بین داده های مختلف نمودار را در طول آموزش مداوم مدیریت می کند بلکه باعث افزایش کارآیی یادگیری مداوم در نمودارهای بزرگ می شود.این کد به صورت عمومی در https://github.com/aubreygjh/e-cgl در دسترس است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.