| عنوان مقاله به انگلیسی | Can Physics Informed Neural Operators Self Improve? |
| عنوان مقاله به فارسی | مقاله آیا عملگرهای عصبی آگاه از فیزیک می توانند خود را بهبود بخشند؟ |
| نویسندگان | Ritam Majumdar, Amey Varhade, Shirish Karande, Lovekesh Vig |
| زبان مقاله | انگلیسی |
| فرمت مقاله: | |
| تعداد صفحات | 0 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Analysis of PDEs,یادگیری ماشین , هوش مصنوعی , تجزیه و تحلیل PDES , |
| توضیحات | Submitted 23 November, 2023; originally announced November 2023. , Comments: Paper accepted as a Spotlight talk at Symbiosis of Deep Learning and Differential Equations, Neural Information Processing Systems 2023 |
| توضیحات به فارسی | ارسال شده 23 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد. ، نظرات: مقاله به عنوان یک گفتگوی کانون توجه در Symbiosis از معادلات یادگیری عمیق و دیفرانسیل ، سیستم های پردازش اطلاعات عصبی 2023 پذیرفته شده است |
چکیده
Self-training techniques have shown remarkable value across many deep learning models and tasks. However, such techniques remain largely unexplored when considered in the context of learning fast solvers for systems of partial differential equations (Eg: Neural Operators). In this work, we explore the use of self-training for Fourier Neural Operators (FNO). Neural Operators emerged as a data driven technique, however, data from experiments or traditional solvers is not always readily available. Physics Informed Neural Operators (PINO) overcome this constraint by utilizing a physics loss for the training, however the accuracy of PINO trained without data does not match the performance obtained by training with data. In this work we show that self-training can be used to close this gap in performance. We examine canonical examples, namely the 1D-Burgers and 2D-Darcy PDEs, to showcase the efficacy of self-training. Specifically, FNOs, when trained exclusively with physics loss through self-training, approach 1.07x for Burgers and 1.02x for Darcy, compared to FNOs trained with both data and physics loss. Furthermore, we discover that pseudo-labels can be used for self-training without necessarily training to convergence in each iteration. A consequence of this is that we are able to discover self-training schedules that improve upon the baseline performance of PINO in terms of accuracy as well as time.
چکیده به فارسی (ترجمه ماشینی)
تکنیک های خود آموزش در بسیاری از مدل ها و وظایف یادگیری عمیق ارزش قابل توجهی را نشان داده اند.با این حال ، چنین تکنیک هایی تا زمانی که در زمینه یادگیری حل کننده های سریع برای سیستم های معادلات دیفرانسیل جزئی (به عنوان مثال: اپراتورهای عصبی) در نظر گرفته شود ، تا حد زیادی کشف نشده است.در این کار ، ما استفاده از خودآموزشی را برای اپراتورهای عصبی فوریه (FNO) بررسی می کنیم.اپراتورهای عصبی به عنوان یک تکنیک داده محور ظاهر می شوند ، با این حال ، داده های آزمایش ها یا حل کننده های سنتی همیشه به راحتی در دسترس نیست.فیزیک به اپراتورهای عصبی (PINO) با استفاده از ضرر فیزیک برای آموزش ، بر این محدودیت غلبه می کند ، اما صحت پینو آموزش دیده بدون داده با عملکرد به دست آمده با آموزش با داده ها مطابقت ندارد.در این کار نشان می دهیم که می توان از خودداری برای بستن این شکاف در عملکرد استفاده کرد.ما نمونه های متعارف ، یعنی 1D-Burgers و 2D-Darcy PDE را بررسی می کنیم تا اثربخشی خودآموزشی را نشان دهیم.به طور خاص ، FNOS ، هنگامی که به طور انحصاری با از دست دادن فیزیک از طریق خودآموزشی آموزش دیده ، در مقایسه با FNO های آموزش داده شده با داده و از دست دادن فیزیک ، به 1.07x برای همبرگرها و 1.02x برای دارسی نزدیک می شود.علاوه بر این ، ما می دانیم که می توان از برچسب های شبه برای خود آموزش استفاده کرد بدون اینکه لزوماً آموزش همگرایی در هر تکرار را آموزش دهد.نتیجه این امر این است که ما قادر به کشف برنامه های خود آموزش هستیم که بر عملکرد پایه پینو از نظر دقت و همچنین زمان بهبود می یابد.
| توجه کنید این مقاله به زبان انگلیسی است. |
|
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|


نقد و بررسیها
هنوز بررسیای ثبت نشده است.