,

مقاله در مورد مدل‌های مولد مبتنی بر انتشار و مرزهای خطای آن‌ها: مورد لگاریتم مقعر با تخمین‌های همگرایی کامل

10,000 تومان

عنوان مقاله به انگلیسی On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates
عنوان مقاله به فارسی مقاله در مدل های تولیدی مبتنی بر انتشار و مرزهای خطای آنها: مورد ورود به سیستم با برآورد همگرایی کامل
نویسندگان Stefano Bruno, Ying Zhang, Dong-Young Lim, Ömer Deniz Akyildiz, Sotirios Sabanis
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 0
دسته بندی موضوعات Machine Learning,Optimization and Control,Probability,Machine Learning,یادگیری ماشین , بهینه سازی و کنترل , احتمال , یادگیری ماشین ,
توضیحات Submitted 22 November, 2023; originally announced November 2023.
توضیحات به فارسی ارسال شده 22 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد.

چکیده

We provide full theoretical guarantees for the convergence behaviour of diffusion-based generative models under the assumption of strongly logconcave data distributions while our approximating class of functions used for score estimation is made of Lipschitz continuous functions. We demonstrate via a motivating example, sampling from a Gaussian distribution with unknown mean, the powerfulness of our approach. In this case, explicit estimates are provided for the associated optimization problem, i.e. score approximation, while these are combined with the corresponding sampling estimates. As a result, we obtain the best known upper bound estimates in terms of key quantities of interest, such as the dimension and rates of convergence, for the Wasserstein-2 distance between the data distribution (Gaussian with unknown mean) and our sampling algorithm. Beyond the motivating example and in order to allow for the use of a diverse range of stochastic optimizers, we present our results using an $L^2$-accurate score estimation assumption, which crucially is formed under an expectation with respect to the stochastic optimizer and our novel auxiliary process that uses only known information. This approach yields the best known convergence rate for our sampling algorithm.

چکیده به فارسی (ترجمه ماشینی)

ما تضمین های نظری کامل برای رفتار همگرایی مدل های تولیدی مبتنی بر انتشار با فرض توزیع داده های به شدت logconcave ارائه می دهیم در حالی که کلاس تقریبی ما از توابع مورد استفاده برای برآورد نمره از توابع مداوم Lipschitz ساخته شده است.ما از طریق یک مثال انگیزه ، نمونه برداری از توزیع گاوسی با میانگین ناشناخته ، قدرت رویکرد ما را نشان می دهیم.در این حالت ، برآوردهای صریح برای مشکل بهینه سازی مرتبط ، یعنی تقریب نمره ارائه شده است ، در حالی که اینها با برآورد نمونه برداری مربوطه ترکیب می شوند.در نتیجه ، ما بهترین برآوردهای شناخته شده را از نظر مقادیر کلیدی مورد علاقه ، مانند ابعاد و نرخ همگرایی ، برای فاصله Wasserstein-2 بین توزیع داده ها (گاوسی با میانگین ناشناخته) و الگوریتم نمونه گیری ما بدست می آوریم.فراتر از مثال انگیزه و به منظور امکان استفاده از طیف متنوعی از بهینه سازهای تصادفی ، ما نتایج خود را با استفاده از فرض تخمین نمره $ L^2 $ ارائه می دهیم ، که به طور مهم با توجه به بهینه ساز تصادفی شکل می گیردو فرآیند کمکی رمان ما که فقط از اطلاعات شناخته شده استفاده می کند.این رویکرد بهترین میزان همگرایی شناخته شده را برای الگوریتم نمونه گیری ما به دست می آورد.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله در مورد مدل‌های مولد مبتنی بر انتشار و مرزهای خطای آن‌ها: مورد لگاریتم مقعر با تخمین‌های همگرایی کامل”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا