| عنوان مقاله به انگلیسی | On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates |
| عنوان مقاله به فارسی | مقاله در مدل های تولیدی مبتنی بر انتشار و مرزهای خطای آنها: مورد ورود به سیستم با برآورد همگرایی کامل |
| نویسندگان | Stefano Bruno, Ying Zhang, Dong-Young Lim, Ömer Deniz Akyildiz, Sotirios Sabanis |
| زبان مقاله | انگلیسی |
| فرمت مقاله: | |
| تعداد صفحات | 0 |
| دسته بندی موضوعات | Machine Learning,Optimization and Control,Probability,Machine Learning,یادگیری ماشین , بهینه سازی و کنترل , احتمال , یادگیری ماشین , |
| توضیحات | Submitted 22 November, 2023; originally announced November 2023. |
| توضیحات به فارسی | ارسال شده 22 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد. |
چکیده
We provide full theoretical guarantees for the convergence behaviour of diffusion-based generative models under the assumption of strongly logconcave data distributions while our approximating class of functions used for score estimation is made of Lipschitz continuous functions. We demonstrate via a motivating example, sampling from a Gaussian distribution with unknown mean, the powerfulness of our approach. In this case, explicit estimates are provided for the associated optimization problem, i.e. score approximation, while these are combined with the corresponding sampling estimates. As a result, we obtain the best known upper bound estimates in terms of key quantities of interest, such as the dimension and rates of convergence, for the Wasserstein-2 distance between the data distribution (Gaussian with unknown mean) and our sampling algorithm. Beyond the motivating example and in order to allow for the use of a diverse range of stochastic optimizers, we present our results using an $L^2$-accurate score estimation assumption, which crucially is formed under an expectation with respect to the stochastic optimizer and our novel auxiliary process that uses only known information. This approach yields the best known convergence rate for our sampling algorithm.
چکیده به فارسی (ترجمه ماشینی)
ما تضمین های نظری کامل برای رفتار همگرایی مدل های تولیدی مبتنی بر انتشار با فرض توزیع داده های به شدت logconcave ارائه می دهیم در حالی که کلاس تقریبی ما از توابع مورد استفاده برای برآورد نمره از توابع مداوم Lipschitz ساخته شده است.ما از طریق یک مثال انگیزه ، نمونه برداری از توزیع گاوسی با میانگین ناشناخته ، قدرت رویکرد ما را نشان می دهیم.در این حالت ، برآوردهای صریح برای مشکل بهینه سازی مرتبط ، یعنی تقریب نمره ارائه شده است ، در حالی که اینها با برآورد نمونه برداری مربوطه ترکیب می شوند.در نتیجه ، ما بهترین برآوردهای شناخته شده را از نظر مقادیر کلیدی مورد علاقه ، مانند ابعاد و نرخ همگرایی ، برای فاصله Wasserstein-2 بین توزیع داده ها (گاوسی با میانگین ناشناخته) و الگوریتم نمونه گیری ما بدست می آوریم.فراتر از مثال انگیزه و به منظور امکان استفاده از طیف متنوعی از بهینه سازهای تصادفی ، ما نتایج خود را با استفاده از فرض تخمین نمره $ L^2 $ ارائه می دهیم ، که به طور مهم با توجه به بهینه ساز تصادفی شکل می گیردو فرآیند کمکی رمان ما که فقط از اطلاعات شناخته شده استفاده می کند.این رویکرد بهترین میزان همگرایی شناخته شده را برای الگوریتم نمونه گیری ما به دست می آورد.
| توجه کنید این مقاله به زبان انگلیسی است. |
|
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:
09395106248 توجه کنید که شرایط ترجمه به صورت زیر است:
|


نقد و بررسیها
هنوز بررسیای ثبت نشده است.