| عنوان مقاله به انگلیسی | Small Language Models are Equation Reasoners | ||||||||
| عنوان مقاله به فارسی | ترجمه فارسی مقاله مدلهای زبانی کوچک، دلایل معادله هستند | ||||||||
| نویسندگان | Bumjun Kim, Kunha Lee, Juyeon Kim, Sangam Lee | ||||||||
| فرمت مقاله انگلیسی | |||||||||
| زبان مقاله تحویلی | ترجمه فارسی | ||||||||
| فرمت مقاله ترجمه شده | به صورت فایل ورد | ||||||||
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) | ||||||||
| تعداد صفحات | 6 | ||||||||
| لینک دانلود رایگان مقاله انگلیسی | دانلود مقاله | ||||||||
| دسته بندی موضوعات | Computation and Language,محاسبه و زبان , | ||||||||
| توضیحات | Submitted 18 September, 2024; originally announced September 2024. , Comments: 6 pages, 2 figures | ||||||||
| توضیحات به فارسی | ارائه شده در 18 سپتامبر 2024 ؛در ابتدا سپتامبر 2024 اعلام شد ، نظرات: 6 صفحه ، 2 شکل | ||||||||
| اطلاعات بیشتر از این مقاله در پایگاه های علمی |
INSPIRE HEP NASA ADS Google Scholar Semantic Scholar فرمت ارائه ترجمه مقاله |
تحویل به صورت فایل ورد |
زمان تحویل ترجمه مقاله |
بین 2 تا 3 روز پس از ثبت سفارش |
کیفیت ترجمه |
بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
جداول و فرمول ها |
کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
|
چکیده
Chain-of-Thought (CoT) reasoning has enabled Large Language Model (LLM) to achieve remarkable performance in various NLP tasks, including arithmetic problem-solving. However, this success does not generalize to small language model (sLM) like T5, due to their limited capacity and absence of emergent abilities associated with larger models. Recent works to enhance sLM through knowledge distillation have yielded some improvements but still face significant limitations, particularly high ambiguity from the variability in natural language expressions and substantial computational costs. In this paper, we investigate why sLM perform poorly on arithmetic reasoning tasks and hypothesize that natural language format variability introduces high ambiguity for these smaller models. Based on this hypothesis, we conduct experiments with equation-only format, which is a reasoning format that unifies arithmetic reasoning previously expressed in natural language formats into mathematical equations. Experiment results demonstrate that equation-only format effectively boosts the arithmetic reasoning abilities of sLM, especially in very small models like T5-Tiny.
چکیده به فارسی (ترجمه ماشینی)
استدلال زنجیره ای از فکر (COT) مدل بزرگ زبان (LLM) را قادر به دستیابی به عملکرد قابل توجه در کارهای مختلف NLP ، از جمله حل مسئله حسابی می کند.با این حال ، این موفقیت به دلیل محدود بودن ظرفیت و عدم وجود توانایی های نوظهور مرتبط با مدل های بزرگتر ، به مدل زبان کوچک (SLM) مانند T5 تعمیم نمی یابد.آثار اخیر برای تقویت SLM از طریق تقطیر دانش برخی از پیشرفت ها را به همراه داشته است اما هنوز هم با محدودیت های قابل توجهی روبرو هستند ، به ویژه ابهام بالای تغییرپذیری در بیان زبان طبیعی و هزینه های محاسباتی قابل توجهی.در این مقاله ، ما بررسی می کنیم که چرا SLM در وظایف استدلال حسابی ضعیف عمل می کند و فرض می کنیم که تنوع فرمت زبان طبیعی ابهام بالایی را برای این مدل های کوچکتر معرفی می کند.بر اساس این فرضیه ، ما آزمایشاتی را با فرمت فقط معادله انجام می دهیم ، که یک قالب استدلال است که استدلال حسابی را که قبلاً در قالب های زبان طبیعی بیان شده بود به معادلات ریاضی متحد می کند.نتایج آزمایش نشان می دهد که قالب فقط معادله به طور موثری توانایی های استدلال حسابی SLM را افزایش می دهد ، به خصوص در مدلهای بسیار کوچک مانند T5-Tiny.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.