,

مقاله طبیعی بودن توجه: توجه مجدد در مدل های زبان کد

19,000 تومان800,000 تومان

عنوان مقاله به انگلیسی Naturalness of Attention: Revisiting Attention in Code Language Models
عنوان مقاله به فارسی مقاله طبیعی بودن توجه: تجدید نظر در مدلهای زبان کد
نویسندگان Mootez Saad, Tushar Sharma
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 0
دسته بندی موضوعات Software Engineering,Machine Learning,مهندسی نرم افزار , یادگیری ماشین ,
توضیحات Submitted 22 November, 2023; originally announced November 2023. , Comments: Accepted at ICSE-NIER (2024) track
توضیحات به فارسی ارسال شده 22 نوامبر 2023 ؛در ابتدا نوامبر 2023 اعلام شد. ، نظرات: در مسیر ICSE-NIER (2024) پذیرفته شده است

چکیده

Language models for code such as CodeBERT offer the capability to learn advanced source code representation, but their opacity poses barriers to understanding of captured properties. Recent attention analysis studies provide initial interpretability insights by focusing solely on attention weights rather than considering the wider context modeling of Transformers. This study aims to shed some light on the previously ignored factors of the attention mechanism beyond the attention weights. We conduct an initial empirical study analyzing both attention distributions and transformed representations in CodeBERT. Across two programming languages, Java and Python, we find that the scaled transformation norms of the input better capture syntactic structure compared to attention weights alone. Our analysis reveals characterization of how CodeBERT embeds syntactic code properties. The findings demonstrate the importance of incorporating factors beyond just attention weights for rigorously understanding neural code models. This lays the groundwork for developing more interpretable models and effective uses of attention mechanisms in program analysis.

چکیده به فارسی (ترجمه ماشینی)

مدل های زبانی برای کدهایی مانند CodeBert توانایی یادگیری بازنمایی کد منبع پیشرفته را ارائه می دهند ، اما کدورت آنها موانعی را برای درک خصوصیات ضبط شده ایجاد می کند.مطالعات تجزیه و تحلیل توجه اخیر بینش های تفسیر اولیه را با تمرکز صرفاً بر وزن توجه به جای در نظر گرفتن مدل سازی متن گسترده تر از ترانسفورماتورها ، ارائه می دهد.این مطالعه با هدف ریختن برخی از عوامل قبلاً نادیده گرفته شده از مکانیسم توجه فراتر از وزن توجه است.ما یک مطالعه تجربی اولیه را انجام می دهیم که هر دو توزیع توجه را مورد تجزیه و تحلیل قرار می دهد و بازنمایی های تبدیل شده در کدبرت.در دو زبان برنامه نویسی ، جاوا و پایتون ، می فهمیم که هنجارهای تحول مقیاس یافته از ساختار نحوی بهتر ضبط در مقایسه با وزن توجه به تنهایی.تجزیه و تحلیل ما توصیف کننده چگونگی تعبیه کدبرت خصوصیات کد نحوی است.این یافته ها نشان دهنده اهمیت ترکیب عوامل فراتر از وزن فقط توجه برای درک دقیق مدل های کد عصبی است.این امر زمینه ای برای توسعه مدلهای قابل تفسیر و استفاده مؤثر از مکانیسم های توجه در تجزیه و تحلیل برنامه است.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.
نوع دانلود

دانلود مقاله اصل انگلیسی, دانلود مقاله اصل انگلیسی + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله, سفارش ترجمه فارسی مقاله + خلاصه دو صفحه ای مقاله + پادکست صوتی فارسی خلاصه مقاله

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله طبیعی بودن توجه: توجه مجدد در مدل های زبان کد”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا