,

مقاله درهای پشتی فرار از زندان جهانی از بازخورد مسموم انسانی

10,000 تومان

عنوان مقاله به انگلیسی Universal Jailbreak Backdoors from Poisoned Human Feedback
عنوان مقاله به فارسی مقاله درهای پشتی فرار از زندان جهانی از بازخورد مسموم انسانی
نویسندگان Javier Rando, Florian Tramèr
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 29
دسته بندی موضوعات Artificial Intelligence,Computation and Language,Cryptography and Security,Machine Learning,هوش مصنوعی , محاسبات و زبان , رمزنگاری و امنیت , یادگیری ماشین ,
توضیحات Submitted 24 November, 2023; originally announced November 2023.
توضیحات به فارسی ارسال شده 24 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد.

چکیده

Reinforcement Learning from Human Feedback (RLHF) is used to align large language models to produce helpful and harmless responses. Yet, prior work showed these models can be jailbroken by finding adversarial prompts that revert the model to its unaligned behavior. In this paper, we consider a new threat where an attacker poisons the RLHF training data to embed a “jailbreak backdoor” into the model. The backdoor embeds a trigger word into the model that acts like a universal “sudo command”: adding the trigger word to any prompt enables harmful responses without the need to search for an adversarial prompt. Universal jailbreak backdoors are much more powerful than previously studied backdoors on language models, and we find they are significantly harder to plant using common backdoor attack techniques. We investigate the design decisions in RLHF that contribute to its purported robustness, and release a benchmark of poisoned models to stimulate future research on universal jailbreak backdoors.

چکیده به فارسی (ترجمه ماشینی)

یادگیری تقویت از بازخورد انسان (RLHF) برای تراز کردن مدلهای بزرگ زبان برای تولید پاسخ های مفید و بی ضرر استفاده می شود.با این حال ، کار قبلی نشان داد که این مدلها با پیدا کردن اعلان های مخالف که مدل را به رفتار غیرقابل توصیف خود باز می گرداند ، می توانند به زندان بیفتند.در این مقاله ، ما یک تهدید جدید را در نظر می گیریم که یک مهاجم داده های آموزش RLHF را برای تعبیه “پشتی فرار از زندان” در مدل قرار می دهد.Backdoor یک کلمه ماشه را به مدل تعبیه می کند که مانند یک “دستور SUDO” جهانی عمل می کند: اضافه کردن کلمه ماشه به هر سریع ، پاسخ های مضر را بدون نیاز به جستجوی سریع طرف مقابل امکان پذیر می کند.پشتوانه های جهانی فرار از زندان بسیار قدرتمندتر از آنچه که قبلاً در مدلهای زبان مورد مطالعه قرار گرفته بود ، و می دانیم که آنها با استفاده از تکنیک های مشترک حمله به پشتی ، کاشت قابل توجهی را سخت تر می کنند.ما تصمیمات طراحی را در RLHF بررسی می کنیم که به استحکام گفته شده آن کمک می کند ، و معیار مدل های مسموم را برای تحریک تحقیقات آینده در زمینه های فرار از زندان جهانی منتشر می کنیم.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله درهای پشتی فرار از زندان جهانی از بازخورد مسموم انسانی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا