,

مقاله از بایت ها تا بایاس ها: بررسی خود ادراک فرهنگی از مدلهای بزرگ زبانی

10.000 تومان

عنوان مقاله به انگلیسی From Bytes to Biases: Investigating the Cultural Self-Perception of Large Language Models
عنوان مقاله به فارسی مقاله از بایت ها تا بایاس ها: بررسی خود ادراک فرهنگی از مدلهای بزرگ زبانی
نویسندگان Wolfgang Messner, Tatum Greene, Josephine Matalone
زبان مقاله انگلیسی
فرمت مقاله: PDF
تعداد صفحات 30
دسته بندی موضوعات Computation and Language,Artificial Intelligence,Human-Computer Interaction,Information Retrieval,Machine Learning,محاسبه و زبان , هوش مصنوعی , تعامل انسان و رایانه , بازیابی اطلاعات , یادگیری ماشین ,
توضیحات Submitted 21 December, 2023; originally announced December 2023. , Comments: 20 pages, 3 tables, 4 figures; Online Supplement: 10 pages, 5 tables, 3 figures
توضیحات به فارسی ارائه شده 21 دسامبر 2023 ؛در ابتدا دسامبر 2023 اعلام شد ، نظرات: 20 صفحه ، 3 جدول ، 4 شکل ؛مکمل آنلاین: 10 صفحه ، 5 جدول ، 3 شکل

چکیده

Large language models (LLMs) are able to engage in natural-sounding conversations with humans, showcasing unprecedented capabilities for information retrieval and automated decision support. They have disrupted human-technology interaction and the way businesses operate. However, technologies based on generative artificial intelligence (GenAI) are known to hallucinate, misinform, and display biases introduced by the massive datasets on which they are trained. Existing research indicates that humans may unconsciously internalize these biases, which can persist even after they stop using the programs. This study explores the cultural self-perception of LLMs by prompting ChatGPT (OpenAI) and Bard (Google) with value questions derived from the GLOBE project. The findings reveal that their cultural self-perception is most closely aligned with the values of English-speaking countries and countries characterized by sustained economic competitiveness. Recognizing the cultural biases of LLMs and understanding how they work is crucial for all members of society because one does not want the black box of artificial intelligence to perpetuate bias in humans, who might, in turn, inadvertently create and train even more biased algorithms.

چکیده به فارسی (ترجمه ماشینی)

مدل های بزرگ زبان (LLMS) قادر به گفتگوهای با صدای طبیعی با انسان هستند و توانایی های بی سابقه ای را برای بازیابی اطلاعات و پشتیبانی تصمیم گیری خودکار نشان می دهند.آنها تعامل انسان و فناوری را مختل کرده اند و نحوه عملکرد مشاغل.با این حال ، فن آوری های مبتنی بر هوش مصنوعی مولد (Genai) به توهم ، نادرست و نمایش تعصبات معرفی شده توسط مجموعه داده های عظیم که در آنها آموزش داده می شود ، شناخته شده اند.تحقیقات موجود نشان می دهد که انسان ممکن است ناخودآگاه این تعصبات را درونی کند ، که حتی پس از متوقف کردن استفاده از برنامه ها می تواند ادامه یابد.این مطالعه به بررسی خود ادراک فرهنگی از LLMS با فوریت ChatGPT (OpenAI) و Bard (Google) با سؤالات ارزشی حاصل از پروژه Globe می پردازد.این یافته ها نشان می دهد که خود درک فرهنگی آنها از نزدیک با ارزش های کشورهای انگلیسی زبان و کشورهایی که با رقابت پایدار اقتصادی مشخص می شوند ، هماهنگ است.شناخت تعصبات فرهنگی LLMS و درک چگونگی کار آنها برای همه اعضای جامعه بسیار مهم است زیرا کسی نمی خواهد جعبه سیاه هوش مصنوعی باعث تعصب در انسان شود ، که به نوبه خود ممکن است الگوریتم های مغرضانه تر ایجاد و آموزش دهند.

توجه کنید این مقاله به زبان انگلیسی است.
برای سفارش ترجمه این مقاله می توانید به یکی از روش های تماس، پیامک، تلگرام و یا واتس اپ با شماره زیر تماس بگیرید:

09395106248

توجه کنید که شرایط ترجمه به صورت زیر است:
  • قیمت هر صفحه ترجمه در حال حاضر 40 هزار تومان می باشد.
  • تحویل مقاله ترجمه شده به صورت فایل ورد می باشد.
  • زمان تحویل ترجمه مقاله در صورت داشتن تعداد صفحات عادی بین 3 تا 5 روز خواهد بود.
  • کیفیت ترجمه بسیار بالا می باشد. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه می‌شود.
  • کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج می‌شوند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله از بایت ها تا بایاس ها: بررسی خود ادراک فرهنگی از مدلهای بزرگ زبانی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا