| عنوان مقاله به انگلیسی | EXPLAIN, AGREE, LEARN: Scaling Learning for Neural Probabilistic Logic | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله توضیح دهید، موافق باشید، یاد بگیرید: مقیاس گذاری یادگیری برای منطق احتمالاتی عصبی | ||||||||
| نویسندگان | Victor Verreet, Lennert De Smet, Luc De Raedt, Emanuele Sansone | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 9 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , | ||||||||
| توضیحات | Submitted 15 August, 2024; originally announced August 2024. | ||||||||
| توضیحات به فارسی | ارسال شده در 15 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Neural probabilistic logic systems follow the neuro-symbolic (NeSy) paradigm by combining the perceptive and learning capabilities of neural networks with the robustness of probabilistic logic. Learning corresponds to likelihood optimization of the neural networks. However, to obtain the likelihood exactly, expensive probabilistic logic inference is required. To scale learning to more complex systems, we therefore propose to instead optimize a sampling based objective. We prove that the objective has a bounded error with respect to the likelihood, which vanishes when increasing the sample count. Furthermore, the error vanishes faster by exploiting a new concept of sample diversity. We then develop the EXPLAIN, AGREE, LEARN (EXAL) method that uses this objective. EXPLAIN samples explanations for the data. AGREE reweighs each explanation in concordance with the neural component. LEARN uses the reweighed explanations as a signal for learning. In contrast to previous NeSy methods, EXAL can scale to larger problem sizes while retaining theoretical guarantees on the error. Experimentally, our theoretical claims are verified and EXAL outperforms recent NeSy methods when scaling up the MNIST addition and Warcraft pathfinding problems.
چکیده به فارسی (ترجمه ماشینی)
سیستم های منطقی احتمالی عصبی با ترکیب قابلیت های ادراکی و یادگیری شبکه های عصبی با استحکام منطق احتمالی ، از الگوی عصبی نماد (NESY) پیروی می کنند.یادگیری با بهینه سازی احتمال شبکه های عصبی مطابقت دارد.با این حال ، برای به دست آوردن احتمال دقیق ، استنباط منطقی احتمالی گران قیمت لازم است.برای مقیاس یادگیری به سیستم های پیچیده تر ، بنابراین ما پیشنهاد می کنیم در عوض یک هدف مبتنی بر نمونه گیری را بهینه کنیم.ما ثابت می کنیم که هدف با توجه به احتمال وجود دارد ، که هنگام افزایش تعداد نمونه از بین می رود ، خطای محدودی دارد.علاوه بر این ، این خطا با بهره برداری از مفهوم جدید تنوع نمونه سریعتر از بین می رود.سپس روش توضیح ، موافق ، یادگیری (Exal) را که از این هدف استفاده می کند ، توسعه می دهیم.توضیحات نمونه را برای داده ها توضیح دهید.موافقت کنید که هر توضیحی را در مورد همخوانی با مؤلفه عصبی دوباره انجام دهید.Learn از توضیحات مجدد به عنوان سیگنال یادگیری استفاده می کند.بر خلاف روشهای قبلی NESY ، Exal می تواند ضمن حفظ ضمانت های نظری در مورد خطا ، به اندازه مشکل بزرگتر مقیاس دهد.از لحاظ تجربی ، ادعاهای نظری ما تأیید شده و از روشهای اخیر NESY در هنگام افزایش مشکلات MNIST و مشکلات مسیریابی Warcraft فراتر می رود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.