| عنوان مقاله به انگلیسی | A Survey on Symbolic Knowledge Distillation of Large Language Models | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله نظرسنجی در مورد تقطیر دانش نمادین از مدل های بزرگ زبان | ||||||||
| نویسندگان | Kamal Acharya, Alvaro Velasquez, Houbing Herbert Song | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 21 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Computation and Language,Machine Learning,محاسبه و زبان , یادگیری ماشین , | ||||||||
| توضیحات | Submitted 12 July, 2024; originally announced August 2024. , Comments: 21 pages, 7 figures | ||||||||
| توضیحات به فارسی | ارائه شده 12 ژوئیه 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: 21 صفحه ، 7 شکل | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
This survey paper delves into the emerging and critical area of symbolic knowledge distillation in Large Language Models (LLMs). As LLMs like Generative Pre-trained Transformer-3 (GPT-3) and Bidirectional Encoder Representations from Transformers (BERT) continue to expand in scale and complexity, the challenge of effectively harnessing their extensive knowledge becomes paramount. This survey concentrates on the process of distilling the intricate, often implicit knowledge contained within these models into a more symbolic, explicit form. This transformation is crucial for enhancing the interpretability, efficiency, and applicability of LLMs. We categorize the existing research based on methodologies and applications, focusing on how symbolic knowledge distillation can be used to improve the transparency and functionality of smaller, more efficient Artificial Intelligence (AI) models. The survey discusses the core challenges, including maintaining the depth of knowledge in a comprehensible format, and explores the various approaches and techniques that have been developed in this field. We identify gaps in current research and potential opportunities for future advancements. This survey aims to provide a comprehensive overview of symbolic knowledge distillation in LLMs, spotlighting its significance in the progression towards more accessible and efficient AI systems.
چکیده به فارسی (ترجمه ماشینی)
این مقاله نظرسنجی به منطقه نوظهور و مهم تقطیر دانش نمادین در مدلهای بزرگ زبان (LLMS) می پردازد.از آنجا که LLM ها مانند ترانسفورماتور از پیش آموزش از پیش آموزش دیده (GPT-3) و بازنمایی رمزگذار دو طرفه از ترانسفورماتورها (BERT) در مقیاس و پیچیدگی گسترش می یابند ، چالش استفاده مؤثر از دانش گسترده آنها مهم است.این بررسی بر روند تقطیر دانش پیچیده و غالباً ضمنی موجود در این مدل ها به شکلی نمادین تر و صریح تر متمرکز است.این تحول برای تقویت تفسیر ، کارآیی و کاربرد LLM ها بسیار مهم است.ما تحقیقات موجود را بر اساس روشها و برنامه ها طبقه بندی می کنیم ، با تمرکز بر اینکه چگونه می توان از تقطیر دانش نمادین برای بهبود شفافیت و عملکرد مدل های هوش مصنوعی کوچکتر و کارآمدتر (AI) استفاده کرد.در این نظرسنجی ، چالش های اصلی ، از جمله حفظ عمق دانش در یک قالب قابل درک ، مورد بحث قرار می گیرد و رویکردها و تکنیک های مختلفی را که در این زمینه توسعه یافته است ، بررسی می کند.ما شکاف در تحقیقات فعلی و فرصت های بالقوه برای پیشرفت های آینده را شناسایی می کنیم.این نظرسنجی با هدف ارائه یک مرور کلی از تقطیر دانش نمادین در LLM ها ، توجه به اهمیت آن در پیشرفت به سمت سیستم های AI در دسترس و کارآمدتر است.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.