| عنوان مقاله به انگلیسی | Cycle Invariant Positional Encoding for Graph Representation Learning |
| عنوان مقاله به فارسی | مقاله رمزگذاری موقعیتی ثابت چرخه برای یادگیری بازنمایی نمودار |
| نویسندگان | Zuoyu Yan, Tengfei Ma, Liangcai Gao, Zhi Tang, Chao Chen, Yusu Wang |
| زبان مقاله | انگلیسی |
| فرمت مقاله: | |
| تعداد صفحات | 21 |
| دسته بندی موضوعات | Machine Learning,فراگیری ماشین, |
| توضیحات | Submitted 24 November, 2023; originally announced November 2023. , Comments: Accepted as oral presentation in the Learning on Graphs Conference (LoG 2023) |
| توضیحات به فارسی | ارسال شده 24 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد ، نظرات: به عنوان ارائه شفاهی در کنفرانس یادگیری در نمودارها پذیرفته شده است (ورود به سیستم 2023) |
چکیده
Cycles are fundamental elements in graph-structured data and have demonstrated their effectiveness in enhancing graph learning models. To encode such information into a graph learning framework, prior works often extract a summary quantity, ranging from the number of cycles to the more sophisticated persistence diagram summaries. However, more detailed information, such as which edges are encoded in a cycle, has not yet been used in graph neural networks. In this paper, we make one step towards addressing this gap, and propose a structure encoding module, called CycleNet, that encodes cycle information via edge structure encoding in a permutation invariant manner. To efficiently encode the space of all cycles, we start with a cycle basis (i.e., a minimal set of cycles generating the cycle space) which we compute via the kernel of the 1-dimensional Hodge Laplacian of the input graph. To guarantee the encoding is invariant w.r.t. the choice of cycle basis, we encode the cycle information via the orthogonal projector of the cycle basis, which is inspired by BasisNet proposed by Lim et al. We also develop a more efficient variant which however requires that the input graph has a unique shortest cycle basis. To demonstrate the effectiveness of the proposed module, we provide some theoretical understandings of its expressive power. Moreover, we show via a range of experiments that networks enhanced by our CycleNet module perform better in various benchmarks compared to several existing SOTA models.
چکیده به فارسی (ترجمه ماشینی)
چرخه ها عناصر اساسی در داده های ساختار یافته هستند و اثربخشی آنها را در تقویت مدلهای یادگیری نمودار نشان داده اند.برای رمزگذاری چنین اطلاعاتی در یک چارچوب یادگیری نمودار ، کارهای قبلی اغلب مقدار خلاصه ای را استخراج می کنند ، از تعداد چرخه ها گرفته تا خلاصه نمودار پایداری پیچیده تر.با این حال ، اطلاعات دقیق تر ، مانند اینکه لبه ها در یک چرخه رمزگذاری می شوند ، هنوز در شبکه های عصبی نمودار استفاده نشده است.در این مقاله ، ما یک قدم برای پرداختن به این شکاف انجام می دهیم ، و یک ماژول رمزگذاری ساختار به نام Cyclenet را پیشنهاد می کنیم که اطلاعات چرخه را از طریق رمزگذاری ساختار لبه به صورت متغیر جایگشت رمزگذاری می کند.برای رمزگذاری کارآمد فضای تمام چرخه ها ، ما با یک چرخه (یعنی مجموعه ای از حداقل چرخه های ایجاد فضای چرخه) شروع می کنیم که از طریق هسته 1 بعدی هاج لاپلاسی از نمودار ورودی محاسبه می کنیم.برای تضمین رمزگذاری Funariant W.R.T.انتخاب مبنای چرخه ، ما اطلاعات چرخه را از طریق پروژکتور متعامد مبنای چرخه رمزگذاری می کنیم ، که توسط پایه ارائه شده توسط لیم و همکاران الهام گرفته شده است.ما همچنین یک نوع کارآمدتر را ایجاد می کنیم که با این حال نیاز به نمودار ورودی دارد که دارای کوتاهترین چرخه منحصر به فرد است.برای نشان دادن اثربخشی ماژول پیشنهادی ، ما برخی از درک نظری از قدرت بیانگر آن را ارائه می دهیم.علاوه بر این ، ما از طریق طیف وسیعی از آزمایشات نشان می دهیم که شبکه های تقویت شده توسط ماژول سیکلت ما در معیارهای مختلف نسبت به چندین مدل SOTA موجود عملکرد بهتری دارند.
| توجه کنید این مقاله به زبان انگلیسی است. |
|
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|


نقد و بررسیها
هنوز بررسیای ثبت نشده است.