| عنوان مقاله به انگلیسی | MPC-Minimized Secure LLM Inference |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله استنتاج LLM امن به حداقل رسیده با MPC |
| نویسندگان | Deevashwer Rathee, Dacheng Li, Ion Stoica, Hao Zhang, Raluca Popa |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 20 |
| دسته بندی موضوعات | Cryptography and Security,Artificial Intelligence,Machine Learning,رمزنگاری و امنیت , هوش مصنوعی , یادگیری ماشین , |
| توضیحات | Submitted 7 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 800,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Many inference services based on large language models (LLMs) pose a privacy concern, either revealing user prompts to the service or the proprietary weights to the user. Secure inference offers a solution to this problem through secure multi-party computation (MPC), however, it is still impractical for modern LLM workload due to the large overhead imposed by MPC. To address this overhead, we propose Marill, a framework that adapts LLM fine-tuning to minimize MPC usage during secure inference. Marill introduces high-level architectural changes during fine-tuning that significantly reduce the number of expensive operations needed within MPC during inference, by removing some and relocating others outside MPC without compromising security. As a result, Marill-generated models are more efficient across all secure inference protocols and our approach complements MPC-friendly approximations for such operations. Compared to standard fine-tuning, Marill results in 3.6-11.3x better runtime and 2.4-6.9x better communication during secure inference across various MPC settings, while typically preserving over 90% performance across downstream tasks.
چکیده به فارسی (ترجمه ماشینی)
بسیاری از خدمات استنتاج بر اساس مدل های بزرگ زبان (LLMS) نگرانی حریم خصوصی را ایجاد می کنند ، یا آشکار می کنند که کاربر را به سرویس یا وزن اختصاصی برای کاربر نشان می دهد.استنتاج ایمن از طریق محاسبات چند حزب ایمن (MPC) راه حلی برای این مشکل ارائه می دهد ، با این حال ، به دلیل سربار بزرگ تحمیل شده توسط MPC ، برای بار کاری LLM مدرن هنوز غیر عملی است.برای پرداختن به این سربار ، ما ماریل را پیشنهاد می کنیم ، چارچوبی که تنظیم دقیق LLM را برای به حداقل رساندن میزان استفاده از MPC در هنگام استنتاج ایمن سازگار می کند.ماریل تغییرات معماری سطح بالا را در حین تنظیم دقیق معرفی می کند که به طور قابل توجهی تعداد عملیات گران قیمت مورد نیاز در MPC را در هنگام استنتاج کاهش می دهد ، با از بین بردن برخی و جابجایی دیگران در خارج از MPC بدون به خطر انداختن امنیت.در نتیجه ، مدل های تولید شده توسط ماریل در تمام پروتکل های استنتاج ایمن کارآمدتر هستند و رویکرد ما مکمل تقریبی دوستانه MPC برای چنین عملیاتی است.در مقایسه با تنظیم دقیق استاندارد ، MARILL منجر به زمان عملکرد بهتر 3.6-11.3x و 2.4-6.9x ارتباط بهتر در طول استنتاج ایمن در تنظیمات مختلف MPC می شود ، در حالی که به طور معمول بیش از 90 ٪ عملکرد را در کارهای پایین دست حفظ می کند.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.