| عنوان مقاله به انگلیسی | Efficient and Robust Jet Tagging at the LHC with Knowledge Distillation |
| عنوان مقاله به فارسی | مقاله برچسب زدن جت کارآمد و قوی در LHC با استخراج دانش |
| نویسندگان | Ryan Liu, Abhijith Gandrakota, Jennifer Ngadiuba, Maria Spiropulu, Jean-Roch Vlimant |
| زبان مقاله | انگلیسی |
| فرمت مقاله: | |
| تعداد صفحات | 7 |
| دسته بندی موضوعات | High Energy Physics – Experiment,Machine Learning,فیزیک انرژی بالا – آزمایش , یادگیری ماشین , |
| توضیحات | Submitted 23 November, 2023; originally announced November 2023. , Comments: 7 pages, 3 figures, accepted at the Machine Learning and the Physical Sciences Workshop, NeurIPS 2023 , Report number: FERMILAB-PUB-23-748-CMS |
| توضیحات به فارسی | ارسال شده 23 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد ، نظرات: 7 صفحه ، 3 شکل ، در کارگاه یادگیری ماشین و کارگاه علوم فیزیکی ، Neurips 2023 ، شماره گزارش: Fermilab-PUB-23-748-CMS پذیرفته شده است. |
چکیده
The challenging environment of real-time data processing systems at the Large Hadron Collider (LHC) strictly limits the computational complexity of algorithms that can be deployed. For deep learning models, this implies that only models with low computational complexity that have weak inductive bias are feasible. To address this issue, we utilize knowledge distillation to leverage both the performance of large models and the reduced computational complexity of small ones. In this paper, we present an implementation of knowledge distillation, demonstrating an overall boost in the student models’ performance for the task of classifying jets at the LHC. Furthermore, by using a teacher model with a strong inductive bias of Lorentz symmetry, we show that we can induce the same inductive bias in the student model which leads to better robustness against arbitrary Lorentz boost.
چکیده به فارسی (ترجمه ماشینی)
محیط چالش برانگیز سیستم های پردازش داده های در زمان واقعی در Collider Hadron بزرگ (LHC) پیچیدگی محاسباتی الگوریتم هایی را که می توانند مستقر شوند ، به شدت محدود می کند.برای مدلهای یادگیری عمیق ، این بدان معنی است که فقط مدلهایی با پیچیدگی محاسباتی کم که دارای تعصب القایی ضعیف هستند امکان پذیر است.برای پرداختن به این مسئله ، ما از تقطیر دانش برای بهره برداری از عملکرد مدل های بزرگ و همچنین کاهش پیچیدگی محاسباتی مدل های کوچک استفاده می کنیم.در این مقاله ، ما یک اجرای تقطیر دانش را ارائه می دهیم ، که نشان دهنده افزایش کلی در عملکرد مدل های دانشجویی برای کار طبقه بندی جت ها در LHC است.علاوه بر این ، با استفاده از یک مدل معلم با تعصب القایی قوی از تقارن لورنتز ، ما نشان می دهیم که می توانیم همان تعصب القایی را در مدل دانشجویی القا کنیم که منجر به استحکام بهتر در برابر تقویت لورنتز دلخواه می شود.
| توجه کنید این مقاله به زبان انگلیسی است. |
|
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|


نقد و بررسیها
هنوز بررسیای ثبت نشده است.