| عنوان مقاله به انگلیسی | Generative AI as a Service in 6G Edge-Cloud: Generation Task Offloading by In-context Learning |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله هوش مصنوعی مولد به عنوان یک سرویس در ابر لبه نسل ششم: تخلیه بار وظیفه تولید با استفاده از یادگیری درون زمینهای |
| نویسندگان | Hao Zhou, Chengming Hu, Dun Yuan, Ye Yuan, Di Wu, Xue Liu, Zhu Han, Charlie Zhang |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 6 |
| دسته بندی موضوعات | Systems and Control,سیستم و کنترل , |
| توضیحات | Submitted 5 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 5 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 240,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Generative artificial intelligence (GAI) is a promising technique towards 6G networks, and generative foundation models such as large language models (LLMs) have attracted considerable interest from academia and telecom industry. This work considers a novel edge-cloud deployment of foundation models in 6G networks. Specifically, it aims to minimize the service delay of foundation models by radio resource allocation and task offloading, i.e., offloading diverse content generation tasks to proper LLMs at the network edge or cloud. In particular, we first introduce the communication system model, i.e., allocating radio resources and calculating link capacity to support generated content transmission, and then we present the LLM inference model to calculate the delay of content generation. After that, we propose a novel in-context learning method to optimize the task offloading decisions. It utilizes LLM’s inference capabilities, and avoids the difficulty of dedicated model training or fine-tuning as in conventional machine learning algorithms. Finally, the simulations demonstrate that the proposed edge-cloud deployment and in-context learning task offloading method can achieve satisfactory generation service quality without dedicated model training or fine-tuning.
چکیده به فارسی (ترجمه ماشینی)
هوش مصنوعی تولیدی (GAI) یک تکنیک امیدوارکننده در جهت شبکه های 6G است و مدلهای بنیادی تولیدی مانند مدل های بزرگ زبان (LLMS) مورد توجه آکادمی و صنعت ارتباطات قرار گرفته است.این کار استقرار جدید و اتصالی مدل های بنیاد در شبکه های 6G را در نظر می گیرد.به طور خاص ، هدف آن به حداقل رساندن تأخیر در سرویس مدلهای بنیاد با تخصیص منابع رادیویی و بارگیری کار ، یعنی بارگیری وظایف متنوع تولید محتوای به LLM های مناسب در حاشیه شبکه یا ابر است.به طور خاص ، ما ابتدا مدل سیستم ارتباطی ، یعنی تخصیص منابع رادیویی و محاسبه ظرفیت پیوند برای پشتیبانی از انتقال محتوای تولید شده را معرفی می کنیم ، و سپس مدل استنتاج LLM را برای محاسبه تأخیر در تولید محتوا ارائه می دهیم.پس از آن ، ما یک روش یادگیری درون متن جدید برای بهینه سازی تصمیمات بارگیری کار پیشنهاد می کنیم.این برنامه از قابلیت های استنتاج LLM استفاده می کند و از دشواری آموزش مدل اختصاصی یا تنظیم دقیق مانند الگوریتم های یادگیری ماشین معمولی جلوگیری می کند.سرانجام ، شبیه سازی ها نشان می دهد که استقرار Edge-Cloud پیشنهادی و روش بارگیری در زمینه یادگیری در داخل متن می تواند به کیفیت خدمات رضایت بخش بدون آموزش مدل اختصاصی یا تنظیم دقیق دست یابد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.