عنوان مقاله به انگلیسی | Scalable AI Safety via Doubly-Efficient Debate |
عنوان مقاله به فارسی | مقاله ایمنی مقیاس پذیر AI از طریق بحث کارآیی مضاعف |
نویسندگان | Jonah Brown-Cohen, Geoffrey Irving, Georgios Piliouras |
زبان مقاله | انگلیسی |
فرمت مقاله: | |
تعداد صفحات | 0 |
دسته بندی موضوعات | Artificial Intelligence,Machine Learning,هوش مصنوعی , یادگیری ماشین , |
توضیحات | Submitted 23 November, 2023; originally announced November 2023. |
توضیحات به فارسی | ارسال شده 23 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد. |
چکیده
The emergence of pre-trained AI systems with powerful capabilities across a diverse and ever-increasing set of complex domains has raised a critical challenge for AI safety as tasks can become too complicated for humans to judge directly. Irving et al. [2018] proposed a debate method in this direction with the goal of pitting the power of such AI models against each other until the problem of identifying (mis)-alignment is broken down into a manageable subtask. While the promise of this approach is clear, the original framework was based on the assumption that the honest strategy is able to simulate deterministic AI systems for an exponential number of steps, limiting its applicability. In this paper, we show how to address these challenges by designing a new set of debate protocols where the honest strategy can always succeed using a simulation of a polynomial number of steps, whilst being able to verify the alignment of stochastic AI systems, even when the dishonest strategy is allowed to use exponentially many simulation steps.
چکیده به فارسی (ترجمه ماشینی)
ظهور سیستم های هوش مصنوعی از قبل آموزش دیده با قابلیت های قدرتمند در مجموعه های متنوع و فزاینده از حوزه های پیچیده ، یک چالش مهم را برای ایمنی هوش مصنوعی ایجاد کرده است زیرا وظایف می تواند برای انسانها بسیار پیچیده شود که مستقیماً قضاوت کنند.ایروینگ و همکاران.[2018] با هدف قرار دادن قدرت چنین مدل های هوش مصنوعی در برابر یکدیگر ، یک روش بحث و گفتگو را در این راستا پیشنهاد کرد تا اینکه مشکل شناسایی (MIS) به یک زیر مجموعه قابل کنترل تبدیل شود.در حالی که وعده این رویکرد واضح است ، چارچوب اصلی مبتنی بر این فرض بود که استراتژی صادقانه قادر به شبیه سازی سیستم های AI قطعی برای تعداد نمایی از مراحل است و کاربرد آن را محدود می کند.در این مقاله ، ما نشان می دهیم که چگونه می توان با طراحی مجموعه جدیدی از پروتکل های بحث و گفتگو که در آن استراتژی صادقانه همیشه می تواند با استفاده از شبیه سازی تعداد چند جمله ای از مراحل ، در حالی که قادر به تأیید تراز سیستم های AI تصادفی ، حتی در صورتی است ، به این چالش ها بپردازیم.استراتژی نامشخص مجاز است از مراحل شبیه سازی زیادی استفاده کند.
توجه کنید این مقاله به زبان انگلیسی است. |
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|
نقد و بررسیها
هنوز بررسیای ثبت نشده است.