,

ترجمه فارسی مقاله توضیح دشوار: در مورد سختی محاسباتی تفسیر مدل درون توزیعی

19,000 تومان720,000 تومان

شناسه محصول: نامعلوم دسته: ,
عنوان مقاله به انگلیسی Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation
عنوان مقاله به فارسی ترجمه فارسی مقاله توضیح دشوار: در مورد سختی محاسباتی تفسیر مدل درون توزیعی
نویسندگان Guy Amir, Shahaf Bassan, Guy Katz
فرمت مقاله انگلیسی PDF
زبان مقاله تحویلی ترجمه فارسی
فرمت مقاله ترجمه شده به صورت فایل ورد
نحوه تحویل ترجمه دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی)
تعداد صفحات 18
دسته بندی موضوعات Machine Learning,Computational Complexity,Logic in Computer Science,یادگیری ماشین , پیچیدگی محاسباتی , منطق در علوم کامپیوتر ,
توضیحات Submitted 7 August, 2024; originally announced August 2024. , Comments: To appear in ECAI 2024
توضیحات به فارسی ارسال شده در 7 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد ، نظرات: برای حضور در ECAI 2024

توضیحات گزینه‌های خرید

دانلود مقاله اصل انگلیسی

با انتخاب این گزینه، می‌توانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.

قیمت: 19,000 تومان

سفارش ترجمه فارسی مقاله

با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش می‌دهید.

قیمت: 720,000 تومان

زمان تحویل: 2 تا 3 روز کاری

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

چکیده

The ability to interpret Machine Learning (ML) models is becoming increasingly essential. However, despite significant progress in the field, there remains a lack of rigorous characterization regarding the innate interpretability of different models. In an attempt to bridge this gap, recent work has demonstrated that it is possible to formally assess interpretability by studying the computational complexity of explaining the decisions of various models. In this setting, if explanations for a particular model can be obtained efficiently, the model is considered interpretable (since it can be explained “easily”). However, if generating explanations over an ML model is computationally intractable, it is considered uninterpretable. Prior research identified two key factors that influence the complexity of interpreting an ML model: (i) the type of the model (e.g., neural networks, decision trees, etc.); and (ii) the form of explanation (e.g., contrastive explanations, Shapley values, etc.). In this work, we claim that a third, important factor must also be considered for this analysis — the underlying distribution over which the explanation is obtained. Considering the underlying distribution is key in avoiding explanations that are socially misaligned, i.e., convey information that is biased and unhelpful to users. We demonstrate the significant influence of the underlying distribution on the resulting overall interpretation complexity, in two settings: (i) prediction models paired with an external out-of-distribution (OOD) detector; and (ii) prediction models designed to inherently generate socially aligned explanations. Our findings prove that the expressiveness of the distribution can significantly influence the overall complexity of interpretation, and identify essential prerequisites that a model must possess to generate socially aligned explanations.

چکیده به فارسی (ترجمه ماشینی)

توانایی تفسیر مدل های یادگیری ماشین (ML) به طور فزاینده ای ضروری می شود.با این حال ، با وجود پیشرفت چشمگیر در این زمینه ، عدم توصیف دقیق در مورد تفسیر ذاتی مدلهای مختلف وجود دارد.در تلاش برای ایجاد این شکاف ، کار اخیر نشان داده است که می توان با مطالعه پیچیدگی محاسباتی توضیح در مورد تصمیمات مدلهای مختلف ، تفسیر را به طور رسمی ارزیابی کرد.در این تنظیم ، اگر توضیحات مربوط به یک مدل خاص را می توان به طور مؤثر بدست آورد ، مدل قابل تفسیر در نظر گرفته می شود (زیرا می توان آن را “به راحتی” توضیح داد).با این حال ، اگر ایجاد توضیحات بر روی یک مدل ML از نظر محاسباتی غیرقابل توصیف باشد ، غیرقابل تفسیر محسوب می شود.تحقیقات قبلی دو عامل اصلی را که بر پیچیدگی تفسیر یک مدل ML تأثیر می گذارد ، شناسایی کرد: (i) نوع مدل (به عنوان مثال ، شبکه های عصبی ، درختان تصمیم گیری و غیره).و (ب) شکل توضیح (به عنوان مثال ، توضیحات متناقض ، مقادیر شاپلی و غیره).در این کار ، ما ادعا می کنیم که یک عامل مهم سوم نیز باید برای این تجزیه و تحلیل در نظر گرفته شود – توزیع اساسی که توضیح آن به دست آمده است.با توجه به توزیع اساسی در جلوگیری از توضیحاتی که از نظر اجتماعی نادرست هستند ، مهم است ، یعنی اطلاعاتی را که مغرضانه و بی فایده برای کاربران است ، منتقل می کند.ما تأثیر قابل توجهی از توزیع اساسی در پیچیدگی تفسیر کلی حاصل ، در دو تنظیم را نشان می دهیم: (i) مدل های پیش بینی جفت شده با یک ردیاب خارج از توزیع خارجی (OOD).و (ب) مدل های پیش بینی طراحی شده برای تولید ذاتاً توضیحات هماهنگ اجتماعی.یافته های ما ثابت می کند که بیان توزیع توزیع می تواند به طور قابل توجهی بر پیچیدگی کلی تفسیر تأثیر بگذارد و پیش نیازهای اساسی را که یک مدل باید برای تولید توضیحات هماهنگ اجتماعی در اختیار داشته باشد ، شناسایی کند.

فرمت ارائه ترجمه مقاله تحویل به صورت فایل ورد
زمان تحویل ترجمه مقاله بین 2 تا 3 روز پس از ثبت سفارش
کیفیت ترجمه بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
جداول و فرمول ها کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, سفارش ترجمه فارسی مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “ترجمه فارسی مقاله توضیح دشوار: در مورد سختی محاسباتی تفسیر مدل درون توزیعی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا