| عنوان مقاله به انگلیسی | Safe Semi-Supervised Contrastive Learning Using In-Distribution Data as Positive Examples |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله یادگیری مقابلهای نیمهنظارتی ایمن با استفاده از دادههای درونتوزیعی به عنوان نمونههای مثبت |
| نویسندگان | Min Gu Kwak, Hyungu Kahng, Seoung Bum Kim |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 12 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Computer Vision and Pattern Recognition,یادگیری ماشین , هوش مصنوعی , چشم انداز رایانه و تشخیص الگوی , |
| توضیحات | Submitted 3 August, 2024; originally announced August 2024. |
| توضیحات به فارسی | ارسال شده در 3 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 99,000 تومان
سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی و ترجمه کامل آن، یک خلاصه دو صفحهای فارسی و پادکست صوتی فارسی خلاصه مقاله را نیز دریافت خواهید کرد.
قیمت: 480,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Semi-supervised learning methods have shown promising results in solving many practical problems when only a few labels are available. The existing methods assume that the class distributions of labeled and unlabeled data are equal; however, their performances are significantly degraded in class distribution mismatch scenarios where out-of-distribution (OOD) data exist in the unlabeled data. Previous safe semi-supervised learning studies have addressed this problem by making OOD data less likely to affect training based on labeled data. However, even if the studies effectively filter out the unnecessary OOD data, they can lose the basic information that all data share regardless of class. To this end, we propose to apply a self-supervised contrastive learning approach to fully exploit a large amount of unlabeled data. We also propose a contrastive loss function with coefficient schedule to aggregate as an anchor the labeled negative examples of the same class into positive examples. To evaluate the performance of the proposed method, we conduct experiments on image classification datasets – CIFAR-10, CIFAR-100, Tiny ImageNet, and CIFAR-100+Tiny ImageNet – under various mismatch ratios. The results show that self-supervised contrastive learning significantly improves classification accuracy. Moreover, aggregating the in-distribution examples produces better representation and consequently further improves classification accuracy.
چکیده به فارسی (ترجمه ماشینی)
روشهای یادگیری نیمه تحت نظارت نتایج امیدوارکننده ای را در حل بسیاری از مشکلات عملی نشان داده اند که فقط چند برچسب در دسترس است.روشهای موجود فرض می کنند که توزیع کلاس داده های دارای برچسب و بدون برچسب برابر است.با این حال ، عملکرد آنها به طور قابل توجهی در سناریوهای عدم تطابق توزیع کلاس که داده های خارج از توزیع (OOD) در داده های بدون برچسب وجود دارد ، تخریب می شود.مطالعات یادگیری نیمه نظارتی ایمن قبلی با ایجاد داده های OOD که کمتر بر آموزش بر اساس داده های دارای برچسب تأثیر می گذارد ، این مشکل را برطرف کرده است.با این حال ، حتی اگر مطالعات به طور موثری داده های غیر ضروری OOD را فیلتر کنند ، می توانند اطلاعات اساسی را که همه داده ها بدون در نظر گرفتن کلاس به اشتراک می گذارند ، از دست بدهند.برای این منظور ، ما پیشنهاد می کنیم یک رویکرد یادگیری متضاد خودکشی خود را برای بهره برداری کامل از مقدار زیادی از داده های بدون برچسب استفاده کنیم.ما همچنین یک عملکرد ضرر متضاد با برنامه ضریب پیشنهاد می کنیم تا به عنوان یک لنگر نمونه های منفی برچسب زده شده از همان کلاس در مثال های مثبت.برای ارزیابی عملکرد روش پیشنهادی ، ما آزمایشاتی را در مجموعه داده های طبقه بندی تصویر-CIFAR-10 ، CIFAR-100 ، TINY IMAGENET و CIFAR-100+Imagenet کوچک انجام می دهیم.نتایج نشان می دهد که یادگیری متضاد خودکشی به طور قابل توجهی دقت طبقه بندی را بهبود می بخشد.علاوه بر این ، جمع کردن نمونه های توزیع در توزیع ، بازنمایی بهتری را ایجاد می کند و در نتیجه دقت طبقه بندی را بهبود می بخشد.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.