عنوان مقاله به انگلیسی | Universal Jailbreak Backdoors from Poisoned Human Feedback |
عنوان مقاله به فارسی | مقاله درهای پشتی فرار از زندان جهانی از بازخورد مسموم انسانی |
نویسندگان | Javier Rando, Florian Tramèr |
زبان مقاله | انگلیسی |
فرمت مقاله: | |
تعداد صفحات | 29 |
دسته بندی موضوعات | Artificial Intelligence,Computation and Language,Cryptography and Security,Machine Learning,هوش مصنوعی , محاسبات و زبان , رمزنگاری و امنیت , یادگیری ماشین , |
توضیحات | Submitted 24 November, 2023; originally announced November 2023. |
توضیحات به فارسی | ارسال شده 24 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد. |
چکیده
Reinforcement Learning from Human Feedback (RLHF) is used to align large language models to produce helpful and harmless responses. Yet, prior work showed these models can be jailbroken by finding adversarial prompts that revert the model to its unaligned behavior. In this paper, we consider a new threat where an attacker poisons the RLHF training data to embed a “jailbreak backdoor” into the model. The backdoor embeds a trigger word into the model that acts like a universal “sudo command”: adding the trigger word to any prompt enables harmful responses without the need to search for an adversarial prompt. Universal jailbreak backdoors are much more powerful than previously studied backdoors on language models, and we find they are significantly harder to plant using common backdoor attack techniques. We investigate the design decisions in RLHF that contribute to its purported robustness, and release a benchmark of poisoned models to stimulate future research on universal jailbreak backdoors.
چکیده به فارسی (ترجمه ماشینی)
یادگیری تقویت از بازخورد انسان (RLHF) برای تراز کردن مدلهای بزرگ زبان برای تولید پاسخ های مفید و بی ضرر استفاده می شود.با این حال ، کار قبلی نشان داد که این مدلها با پیدا کردن اعلان های مخالف که مدل را به رفتار غیرقابل توصیف خود باز می گرداند ، می توانند به زندان بیفتند.در این مقاله ، ما یک تهدید جدید را در نظر می گیریم که یک مهاجم داده های آموزش RLHF را برای تعبیه “پشتی فرار از زندان” در مدل قرار می دهد.Backdoor یک کلمه ماشه را به مدل تعبیه می کند که مانند یک “دستور SUDO” جهانی عمل می کند: اضافه کردن کلمه ماشه به هر سریع ، پاسخ های مضر را بدون نیاز به جستجوی سریع طرف مقابل امکان پذیر می کند.پشتوانه های جهانی فرار از زندان بسیار قدرتمندتر از آنچه که قبلاً در مدلهای زبان مورد مطالعه قرار گرفته بود ، و می دانیم که آنها با استفاده از تکنیک های مشترک حمله به پشتی ، کاشت قابل توجهی را سخت تر می کنند.ما تصمیمات طراحی را در RLHF بررسی می کنیم که به استحکام گفته شده آن کمک می کند ، و معیار مدل های مسموم را برای تحریک تحقیقات آینده در زمینه های فرار از زندان جهانی منتشر می کنیم.
توجه کنید این مقاله به زبان انگلیسی است. |
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|
نقد و بررسیها
هنوز بررسیای ثبت نشده است.