ترجمه فارسی مقاله یادگیری متغیر مدل‌های متغیر نهفته فرآیند گاوسی از طریق نمونه‌برداری اهمیت آنیل شده با گرادیان تصادفی

600,000 تومان

عنوان مقاله به انگلیسی Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling
عنوان مقاله به فارسی ترجمه فارسی مقاله یادگیری متغیر مدل‌های متغیر نهفته فرآیند گاوسی از طریق نمونه‌برداری اهمیت آنیل شده با گرادیان تصادفی
نویسندگان Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 15
لینک دانلود رایگان مقاله انگلیسی دانلود مقاله
دسته بندی موضوعات Machine Learning,Artificial Intelligence,Machine Learning,یادگیری ماشین , هوش مصنوعی , یادگیری ماشین ,
توضیحات Submitted 13 August, 2024; originally announced August 2024.
توضیحات به فارسی ارسال شده در 13 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد.
اطلاعات بیشتر از این مقاله در پایگاه های علمی INSPIRE HEP

NASA ADS

Google Scholar

Semantic Scholar

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

Gaussian Process Latent Variable Models (GPLVMs) have become increasingly popular for unsupervised tasks such as dimensionality reduction and missing data recovery due to their flexibility and non-linear nature. An importance-weighted version of the Bayesian GPLVMs has been proposed to obtain a tighter variational bound. However, this version of the approach is primarily limited to analyzing simple data structures, as the generation of an effective proposal distribution can become quite challenging in high-dimensional spaces or with complex data sets. In this work, we propose an Annealed Importance Sampling (AIS) approach to address these issues. By transforming the posterior into a sequence of intermediate distributions using annealing, we combine the strengths of Sequential Monte Carlo samplers and VI to explore a wider range of posterior distributions and gradually approach the target distribution. We further propose an efficient algorithm by reparameterizing all variables in the evidence lower bound (ELBO). Experimental results on both toy and image datasets demonstrate that our method outperforms state-of-the-art methods in terms of tighter variational bounds, higher log-likelihoods, and more robust convergence.

چکیده به فارسی (ترجمه ماشینی)

مدلهای متغیر نهفته فرآیند گاوسی (GPLVM) برای کارهای بدون نظارت مانند کاهش ابعاد و بازیابی اطلاعات از دست رفته به دلیل انعطاف پذیری و ماهیت غیرخطی ، به طور فزاینده ای محبوب شده اند.یک نسخه با وزن اهمیت از GPLVM های بیزی برای به دست آوردن یک محدودیت تنوع سخت تر پیشنهاد شده است.با این حال ، این نسخه از این رویکرد در درجه اول به تجزیه و تحلیل ساختارهای داده ساده محدود است ، زیرا تولید یک توزیع پیشنهادی مؤثر می تواند در فضاهای با ابعاد بالا یا با مجموعه داده های پیچیده کاملاً چالش برانگیز شود.در این کار ، ما یک رویکرد نمونه گیری اهمیت آنیل (AIS) را برای رسیدگی به این موضوعات پیشنهاد می کنیم.با تبدیل خلفی به دنباله ای از توزیع های میانی با استفاده از بازپخت ، ما نقاط قوت نمونه برداران متوالی مونت کارلو و VI را برای کشف طیف وسیع تری از توزیع خلفی ترکیب می کنیم و به تدریج به توزیع هدف نزدیک می شویم.ما بیشتر با استفاده از بازپرداخت کلیه متغیرها در شواهد پایین (ELBO) یک الگوریتم کارآمد را پیشنهاد می کنیم.نتایج تجربی در هر دو مجموعه داده های اسباب بازی و تصویر نشان می دهد که روش ما از روشهای پیشرفته از نظر مرزهای متغیر سخت تر ، احتمال ورود به سیستم بالاتر و همگرایی قوی تر عمل می کند.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله یادگیری متغیر مدل‌های متغیر نهفته فرآیند گاوسی از طریق نمونه‌برداری اهمیت آنیل شده با گرادیان تصادفی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا