,

ترجمه فارسی مقاله تطبیق رتبه پایین آگاه از سوگیری: کاهش وراثت فاجعه‌بار مدل‌های زبانی بزرگ

19,000 تومان520,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Bias-Aware Low-Rank Adaptation: Mitigating Catastrophic Inheritance of Large Language Models
عنوان مقاله به فارسی ترجمه فارسی مقاله تطبیق رتبه پایین آگاه از سوگیری: کاهش وراثت فاجعه‌بار مدل‌های زبانی بزرگ
نویسندگان Yupeng Chang, Yi Chang, Yuan Wu
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 13
دسته بندی موضوعات Computation and Language,Machine Learning,محاسبه و زبان , یادگیری ماشین ,
توضیحات Submitted 8 August, 2024; originally announced August 2024. , Comments: Work in progress
توضیحات به فارسی ارسال شده در 8 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: کار در حال انجام

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 520,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Large language models (LLMs) have exhibited remarkable proficiency across a diverse array of natural language processing (NLP) tasks. However, adapting LLMs to downstream applications typically necessitates computationally intensive and memory-demanding fine-tuning procedures. To mitigate these burdens, parameter-efficient fine-tuning (PEFT) techniques have emerged as a promising approach to tailor LLMs with minimal computational overhead. While PEFT methods offer substantial advantages, they do not fully address the pervasive issue of bias propagation from pre-training data. In this work, we introduce Bias-Aware Low-Rank Adaptation (BA-LoRA), a novel PEFT method designed to counteract bias inheritance. BA-LoRA incorporates three distinct regularization terms: (1) consistency regularizer, (2) diversity regularizer, and (3) singular vector decomposition regularizer. These regularizers collectively aim to improve the generative models’ consistency, diversity, and generalization capabilities during the fine-tuning process. Through extensive experiments on a variety of natural language understanding (NLU) and natural language generation (NLG) tasks, employing prominent LLMs such as LLaMA, Mistral, and Gemma, we demonstrate that BA-LoRA surpasses the performance of LoRA and its state-of-the-art variants. Moreover, our method effectively mitigates the deleterious effects of pre-training bias, leading to more reliable and robust model outputs. The code is available at https://github.com/cyp-jlu-ai/BA-LoRA.

چکیده به فارسی (ترجمه ماشینی)

مدل های بزرگ زبان (LLMS) مهارت قابل توجهی را در مجموعه های متنوعی از کارهای پردازش زبان طبیعی (NLP) به نمایش گذاشته اند.با این حال ، تطبیق LLM ها با برنامه های پایین دست به طور معمول نیاز به روشهای تنظیم دقیق محاسباتی و تقاضای حافظه دارد.برای کاهش این بارها ، تکنیک های تنظیم دقیق پارامتر (PEFT) به عنوان یک رویکرد امیدوار کننده برای LLM های خیاطی با حداقل سربار محاسباتی ظاهر شده اند.در حالی که روش های PEFT مزایای قابل توجهی را ارائه می دهند ، آنها به طور کامل به مسئله فراگیر انتشار تعصب از داده های قبل از آموزش پرداخته نمی شوند.در این کار ، ما اقتباسی از رتبه پایین تعصب (BA-LORA) را معرفی می کنیم ، یک روش جدید PEFT که برای مقابله با وراثت تعصب طراحی شده است.BA-LORA شامل سه اصطلاح تنظیم مجزا است: (1) تنظیم کننده سازگاری ، (2) تنظیم کننده تنوع ، و (3) تنظیم کننده تجزیه بردار مفرد.این منظم سازان در مجموع با هدف بهبود قوام ، تنوع و قابلیت های عمومی مدل های تولیدی در طی فرآیند تنظیم دقیق انجام می شود.از طریق آزمایش های گسترده در مورد انواع مختلف درک زبان طبیعی (NLU) و کارهای تولید زبان طبیعی (NLG) ، با استفاده از LLM های برجسته مانند Llama ، Mistral و Gemma ، ما نشان می دهیم که Ba-Lora از عملکرد لورا و پیشرفته آن پیشی می گیردانواع مختلفی.علاوه بر این ، روش ما به طور موثری اثرات مضر تعصب قبل از آموزش را کاهش می دهد و منجر به خروجی های مدل قابل اعتماد تر و قوی تر می شود.این کد در https://github.com/cyp-jlu-ai/ba-lora در دسترس است.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله تطبیق رتبه پایین آگاه از سوگیری: کاهش وراثت فاجعه‌بار مدل‌های زبانی بزرگ”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا