| عنوان مقاله به انگلیسی | A federated large language model for long-term time series forecasting |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یک مدل زبان بزرگ فدرال برای پیشبینی سریهای زمانی بلندمدت |
| نویسندگان | Raed Abdel-Sater, A. Ben Hamza |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 8 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,یادگیری ماشین , هوش مصنوعی , |
| توضیحات | Submitted 29 July, 2024; originally announced July 2024. |
| توضیحات به فارسی | ارسال 29 ژوئیه 2024 ؛در ابتدا ژوئیه 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 320,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Long-term time series forecasting in centralized environments poses unique challenges regarding data privacy, communication overhead, and scalability. To address these challenges, we propose FedTime, a federated large language model (LLM) tailored for long-range time series prediction. Specifically, we introduce a federated pre-trained LLM with fine-tuning and alignment strategies. Prior to the learning process, we employ K-means clustering to partition edge devices or clients into distinct clusters, thereby facilitating more focused model training. We also incorporate channel independence and patching to better preserve local semantic information, ensuring that important contextual details are retained while minimizing the risk of information loss. We demonstrate the effectiveness of our FedTime model through extensive experiments on various real-world forecasting benchmarks, showcasing substantial improvements over recent approaches. In addition, we demonstrate the efficiency of FedTime in streamlining resource usage, resulting in reduced communication overhead.
چکیده به فارسی (ترجمه ماشینی)
پیش بینی سری زمانی طولانی مدت در محیط های متمرکز چالش های منحصر به فردی را در مورد حریم خصوصی داده ها ، سربار ارتباطات و مقیاس پذیری ایجاد می کند.برای پرداختن به این چالش ها ، ما FedTime را پیشنهاد می کنیم ، یک مدل زبان بزرگ فدرال (LLM) متناسب با پیش بینی سریال های دوربرد.به طور خاص ، ما یک LLM از قبل آموزش دیده فدرال را با استراتژی های تنظیم دقیق و تراز معرفی می کنیم.قبل از فرآیند یادگیری ، ما از خوشه های K-Means به دستگاه های لبه پارتیشن یا مشتری در خوشه های مجزا استفاده می کنیم و از این طریق آموزش مدل متمرکز تر را تسهیل می کنیم.ما همچنین استقلال کانال و وصله ای را برای حفظ بهتر اطلاعات معنایی محلی در بر می گیریم ، و اطمینان حاصل می کنیم که جزئیات مهم متنی ضمن به حداقل رساندن خطر از دست دادن اطلاعات ، حفظ می شود.ما اثربخشی مدل زمان فدرال خود را از طریق آزمایش های گسترده در معیارهای مختلف پیش بینی در دنیای واقعی نشان می دهیم و پیشرفت های قابل توجهی را نسبت به رویکردهای اخیر نشان می دهد.علاوه بر این ، ما کارآیی زمان فدرال را در ساده سازی استفاده از منابع نشان می دهیم ، و در نتیجه باعث کاهش سربار ارتباطات می شود.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.