,

ترجمه فارسی مقاله آیا می‌توان LLM ها را فریب داد؟ بررسی آسیب‌پذیری‌ها در LLM ها

19,000 تومان560,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Can LLMs be Fooled? Investigating Vulnerabilities in LLMs
عنوان مقاله به فارسی ترجمه فارسی مقاله آیا می‌توان LLM ها را فریب داد؟ بررسی آسیب‌پذیری‌ها در LLM ها
نویسندگان Sara Abdali, Jia He, CJ Barberan, Richard Anarfi
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 14
دسته بندی موضوعات Machine Learning,Cryptography and Security,یادگیری ماشین , رمزنگاری و امنیت ,
توضیحات Submitted 30 July, 2024; originally announced July 2024. , Comments: 14 pages, 1 figure. arXiv admin note: text overlap with arXiv:2403.12503
توضیحات به فارسی ارسال شده 30 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد ، نظرات: 14 صفحه ، 1 شکل.Arxiv Admin توجه: همپوشانی متن با ARXIV: 2403.12503

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 99,000 تومان

سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحه‌ای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.

قیمت: 560,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

The advent of Large Language Models (LLMs) has garnered significant popularity and wielded immense power across various domains within Natural Language Processing (NLP). While their capabilities are undeniably impressive, it is crucial to identify and scrutinize their vulnerabilities especially when those vulnerabilities can have costly consequences. One such LLM, trained to provide a concise summarization from medical documents could unequivocally leak personal patient data when prompted surreptitiously. This is just one of many unfortunate examples that have been unveiled and further research is necessary to comprehend the underlying reasons behind such vulnerabilities. In this study, we delve into multiple sections of vulnerabilities which are model-based, training-time, inference-time vulnerabilities, and discuss mitigation strategies including “Model Editing” which aims at modifying LLMs behavior, and “Chroma Teaming” which incorporates synergy of multiple teaming strategies to enhance LLMs’ resilience. This paper will synthesize the findings from each vulnerability section and propose new directions of research and development. By understanding the focal points of current vulnerabilities, we can better anticipate and mitigate future risks, paving the road for more robust and secure LLMs.

چکیده به فارسی (ترجمه ماشینی)

ظهور مدلهای بزرگ زبان (LLMS) محبوبیت قابل توجهی را کسب کرده و قدرت عظیمی را در حوزه های مختلف در پردازش زبان طبیعی (NLP) به دست آورده است.در حالی که توانایی های آنها غیرقابل انکار چشمگیر است ، شناسایی و بررسی آسیب پذیری های آنها به ویژه هنگامی که این آسیب پذیری ها می توانند عواقب پرهزینه ای داشته باشند ، بسیار مهم است.یکی از این LLM ها ، که برای ارائه خلاصه مختصر از اسناد پزشکی آموزش دیده است ، می تواند داده های بیمار شخصی را به طور واضح در صورت بروز سوختگی به طور واضح نشت کند.این تنها یکی از نمونه های ناگوار است که رونمایی شده است و تحقیقات بیشتر برای درک دلایل اساسی چنین آسیب پذیری ها ضروری است.در این مطالعه ، ما به بخش های مختلفی از آسیب پذیری ها که شامل مدل های مبتنی بر مدل ، آموزش ، آسیب پذیری های زمان استنباط می شوند ، می پردازیم و در مورد استراتژی های کاهش از جمله “ویرایش مدل” که هدف آن اصلاح رفتار LLMS و “تیم سازی Chroma” است که شامل هم افزایی است ، بحث می کنیم.از چندین استراتژی تیمی برای تقویت مقاومت LLMS.در این مقاله یافته های هر بخش آسیب پذیری سنتز شده و دستورالعمل های جدید تحقیق و توسعه را پیشنهاد می کند.با درک نقاط کانونی آسیب پذیری های فعلی ، ما می توانیم خطرات آینده را بهتر پیش بینی و کاهش دهیم و جاده را برای LLM های قوی تر و ایمن تر هموار کنیم.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله آیا می‌توان LLM ها را فریب داد؟ بررسی آسیب‌پذیری‌ها در LLM ها”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا