| عنوان مقاله به انگلیسی | Variational Inference Failures Under Model Symmetries: Permutation Invariant Posteriors for Bayesian Neural Networks |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله شکستهای استنتاج تغییراتی تحت تقارنهای مدل: پسینهای ثابت جایگشتی برای شبکههای عصبی بیزی |
| نویسندگان | Yoav Gelberg, Tycho F. A. van der Ouderaa, Mark van der Wilk, Yarin Gal |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 16 |
| دسته بندی موضوعات | Machine Learning,Machine Learning,یادگیری ماشین , یادگیری ماشین , |
| توضیحات | Submitted 10 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده 10 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 640,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Weight space symmetries in neural network architectures, such as permutation symmetries in MLPs, give rise to Bayesian neural network (BNN) posteriors with many equivalent modes. This multimodality poses a challenge for variational inference (VI) techniques, which typically rely on approximating the posterior with a unimodal distribution. In this work, we investigate the impact of weight space permutation symmetries on VI. We demonstrate, both theoretically and empirically, that these symmetries lead to biases in the approximate posterior, which degrade predictive performance and posterior fit if not explicitly accounted for. To mitigate this behavior, we leverage the symmetric structure of the posterior and devise a symmetrization mechanism for constructing permutation invariant variational posteriors. We show that the symmetrized distribution has a strictly better fit to the true posterior, and that it can be trained using the original ELBO objective with a modified KL regularization term. We demonstrate experimentally that our approach mitigates the aforementioned biases and results in improved predictions and a higher ELBO.
چکیده به فارسی (ترجمه ماشینی)
تقارن فضای وزن در معماری های شبکه عصبی ، مانند تقارن مجوز در MLP ها ، باعث ایجاد خلفی شبکه عصبی بیزی (BNN) با حالت های معادل بسیاری می شود.این چند حالته برای تکنیک های استنباط متغیر (VI) یک چالش را ایجاد می کند ، که به طور معمول به تقریب خلفی با یک توزیع غیرمعمول متکی هستند.در این کار ، ما تأثیر تقارن جابجایی فضای وزن بر VI را بررسی می کنیم.ما از نظر تئوری و تجربی نشان می دهیم که این تقارن منجر به تعصب در خلفی تقریبی می شود ، که عملکرد پیش بینی کننده و تناسب خلفی را اگر صریحاً حساب نشود ، تخریب می کند.برای کاهش این رفتار ، ما از ساختار متقارن خلفی استفاده می کنیم و یک مکانیسم تقارن را برای ساخت خلفی متغیر متغیر متغیر ابداع می کنیم.ما نشان می دهیم که توزیع متقارن کاملاً مناسب تر از خلفی واقعی است و می توان با استفاده از هدف اصلی ELBO با یک اصطلاح منظم KL اصلاح شده آموزش دید.ما به صورت تجربی نشان می دهیم که رویکرد ما تعصبات فوق الذکر را کاهش می دهد و منجر به پیش بینی های بهبود یافته و ELBO بالاتر می شود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.