,

مقاله به سوی راستی‌آزمایی توضیحی به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله به سوی راستی‌آزمایی توضیحی
نویسندگان Isabelle Augenstein
دسته‌بندی علمی Computation and Language,Machine Learning

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

به سوی راستی‌آزمایی توضیحی: گامی نو در مبارزه با اطلاعات نادرست

معرفی مقاله و اهمیت آن

در دهه‌ گذشته، شاهد رشد چشمگیر و بی‌سابقه‌ای در حجم اطلاعات گمراه‌کننده و نادرست در فضای آنلاین بوده‌ایم. از کمپین‌های هدفمند اطلاعات نادرست که برای تأثیرگذاری بر سیاست‌ها طراحی شده‌اند تا انتشار ناخواسته اخبار غلط در مورد سلامت عمومی، این پدیده به یک چالش جهانی تبدیل شده است. این وضعیت، پژوهش‌ها را به سمت توسعه سیستم‌های راستی‌آزمایی خودکار سوق داده است؛ سیستم‌هایی که از تشخیص ادعاهای نیازمند بررسی و تعیین موضع‌گیری توییت‌ها نسبت به ادعاها، تا روش‌هایی برای تعیین صحت ادعاها بر اساس مستندات شواهد را در بر می‌گیرند.

اهمیت این مقاله در ارائه‌ یک رویکرد جامع برای مقابله با این معضل است، اما با تمرکزی کلیدی بر روی یک بُعد حیاتی که اغلب در سیستم‌های خودکار نادیده گرفته می‌شود: توضیح‌پذیری. در حالی که بسیاری از روش‌های خودکار راستی‌آزمایی مبتنی بر محتوا و با استفاده از روش‌های پردازش زبان طبیعی هستند که به نوبه‌ خود از شبکه‌های عصبی عمیق برای یادگیری ویژگی‌های سطح بالا از متن بهره می‌برند، مشکل اصلی اینجاست که این شبکه‌ها اغلب به عنوان «جعبه سیاه» عمل می‌کنند. یعنی مکانیزم درونی آن‌ها به راحتی قابل توضیح نیست.

در دنیای امروز که هوش مصنوعی در تصمیم‌گیری‌های حیاتی نقش فزاینده‌ای ایفا می‌کند، توضیح‌پذیری دیگر یک مزیت اختیاری نیست، بلکه یک ضرورت است. این نیاز با افزایش ابعاد مدل‌ها، و همچنین قوانین سخت‌گیرانه‌ای مانند الزامات اتحادیه اروپا برای مدل‌های مورد استفاده در تصمیم‌گیری که باید قابلیت توضیح‌پذیری داشته باشند، و اخیراً قوانینی که پلتفرم‌های آنلاین فعال در اتحادیه اروپا را ملزم به ارائه گزارش‌های شفاف در مورد خدماتشان می‌کنند، تشدید شده است. این مقاله دقیقاً به این خلأ می‌پردازد و راهکارهای اولیه برای راستی‌آزمایی توضیحی را ارائه می‌دهد، که می‌تواند اعتماد عمومی به سیستم‌های هوش مصنوعی را بازگرداند و به شفافیت بیشتر در فضای آنلاین کمک کند.

نویسندگان و زمینه تحقیق

این پژوهش توسط ایزابل آگوستنشتاین (Isabelle Augenstein) انجام شده است. آگوستنشتاین از محققان برجسته در حوزه‌های تقاطع پردازش زبان طبیعی (NLP) و یادگیری ماشین (Machine Learning) است. کار او اغلب بر روی توسعه روش‌های هوشمند برای درک، تحلیل، و استخراج اطلاعات از داده‌های متنی متمرکز است.

زمینه‌ تحقیق این مقاله به طور خاص بر روی «محاسبات و زبان» (Computation and Language) و «یادگیری ماشین» (Machine Learning) متمرکز است. این حوزه‌ها شامل توسعه الگوریتم‌ها و مدل‌هایی هستند که به کامپیوترها اجازه می‌دهند زبان انسانی را درک کرده، تولید کنند، و با آن تعامل داشته باشند. در این مقاله، این دانش در جهت حل یکی از مهمترین چالش‌های دوران مدرن، یعنی مبارزه با اطلاعات نادرست، به کار گرفته شده است.

پژوهش‌های آگوستنشتاین و سایر محققان در این زمینه، پایه‌های نظری و عملی برای ساخت سیستم‌های خودکار هوشمندی را فراهم می‌آورند که می‌توانند حجم عظیمی از اطلاعات آنلاین را پردازش کرده و ادعاهای مشکوک را شناسایی و صحت‌سنجی کنند. این مقاله گامی فراتر نهاده و به مسئله‌ی اعتماد و شفافیت در این سیستم‌ها می‌پردازد، که آن را در خط مقدم تحقیقات معاصر قرار می‌دهد.

چکیده و خلاصه محتوا

چکیده مقاله “به سوی راستی‌آزمایی توضیحی” خلاصه‌ای دقیق از محتوای این تحقیق مهم را ارائه می‌دهد. در ابتدا، به افزایش چشمگیر اطلاعات نادرست و گمراه‌کننده در اینترنت طی دهه گذشته اشاره می‌کند. این پدیده، از کمپین‌های سازمان‌یافته برای تأثیرگذاری بر افکار عمومی و سیاست‌ها گرفته تا انتشار ناخواسته اطلاعات غلط درباره مسائل بهداشت عمومی، لزوم توسعه سیستم‌های راستی‌آزمایی خودکار را بیش از پیش پررنگ کرده است.

این سیستم‌ها معمولاً رویکردهای مختلفی را دنبال می‌کنند، از جمله:

  • تشخیص ادعاهای نیازمند بررسی: شناسایی جملات یا عباراتی که پتانسیل نادرست بودن را دارند و باید مورد راستی‌آزمایی قرار گیرند.
  • تعیین موضع‌گیری: تحلیل نظرات و واکنش‌ها (مثلاً در شبکه‌های اجتماعی) نسبت به یک ادعا برای درک این که آیا آن‌ها ادعا را تأیید، رد یا خنثی تلقی می‌کنند.
  • پیش‌بینی صحت: تعیین درستی یا نادرستی یک ادعا بر اساس شواهد و مستندات موجود.

نویسنده سپس به یک چالش اساسی در این زمینه می‌پردازد: استفاده از شبکه‌های عصبی عمیق در پردازش زبان طبیعی. این مدل‌ها به دلیل توانایی‌شان در یادگیری ویژگی‌های پیچیده از متن، در پیش‌بینی‌ها بسیار کارآمد هستند، اما به دلیل ماهیت “جعبه سیاه” خود، توضیح مکانیزم درونی آن‌ها دشوار است. این امر در حالی است که نیاز مبرمی به توضیح چگونگی اتخاذ تصمیمات توسط این مدل‌ها وجود دارد، به ویژه اگر قرار باشد در فرآیندهای تصمیم‌گیری حیاتی مورد استفاده قرار گیرند.

اهمیت این موضوع با قوانین جدید اتحادیه اروپا که الزاماتی را برای توضیح‌پذیری مدل‌ها و گزارش‌دهی شفاف پلتفرم‌های آنلاین تعیین کرده است، دوچندان می‌شود. با این وجود، راهکارهای فعلی برای توضیح‌پذیری در حوزه راستی‌آزمایی همچنان ناکافی هستند. این پایان‌نامه، تحقیقات نویسنده را در زمینه‌ راستی‌آزمایی خودکار، شامل تشخیص قابلیت راستی‌آزمایی ادعا، تشخیص موضع‌گیری و پیش‌بینی صحت ارائه می‌دهد. فراتر از راستی‌آزمایی، این پایان‌نامه راهکارهای کلی‌تری در یادگیری ماشین برای پردازش زبان طبیعی، به ویژه در زمینه یادگیری با داده‌های برچسب‌گذاری شده محدود، پیشنهاد می‌کند. در نهایت، مقاله برخی از اولین راهکارهای عملی برای راستی‌آزمایی توضیحی را معرفی می‌کند که گامی مهم در جهت شفافیت و اعتماد در سیستم‌های هوش مصنوعی است.

روش‌شناسی تحقیق

روش‌شناسی به کار گرفته شده در این پایان‌نامه بر پایه‌ی بهره‌گیری از تکنیک‌های پیشرفته پردازش زبان طبیعی (NLP) و یادگیری عمیق (Deep Learning) استوار است. ایزابل آگوستنشتاین در این تحقیق، سه مرحله کلیدی در فرآیند راستی‌آزمایی خودکار را مورد بررسی و توسعه قرار داده است:

  • تشخیص قابلیت راستی‌آزمایی ادعا (Claim Check-worthiness Detection): در این مرحله، سیستم‌های هوش مصنوعی وظیفه دارند تا از میان حجم انبوهی از اطلاعات، ادعاهایی را که پتانسیل نادرست بودن دارند و نیاز به بررسی دقیق‌تر دارند، شناسایی کنند. روش‌شناسی شامل آموزش مدل‌هایی است که می‌توانند ویژگی‌های زبانی و ساختاری یک ادعا را برای تعیین میزان “شک‌برانگیز” بودن آن تجزیه و تحلیل کنند. به عنوان مثال، یک ادعای شامل اعداد و ارقام خاص یا رویدادهای تاریخی ملموس، احتمالاً از قابلیت راستی‌آزمایی بیشتری برخوردار است.
  • تشخیص موضع‌گیری (Stance Detection): پس از شناسایی یک ادعای نیازمند بررسی، گام بعدی تعیین موضع‌گیری (تأیید، رد یا بی‌طرفی) متون دیگر نسبت به آن ادعا است. این مرحله اغلب با استفاده از مدل‌های یادگیری عمیق پیچیده انجام می‌شود که قادرند روابط معنایی بین یک ادعا و نظرات کاربران یا مقالات خبری را درک کنند. به عنوان مثال، اگر چندین خبر معتبر یک ادعا را صراحتاً رد کنند، سیستم باید بتواند این موضع‌گیری را تشخیص دهد.
  • پیش‌بینی صحت (Veracity Prediction): این مرحله نهایی در فرآیند راستی‌آزمایی خودکار است، که در آن مدل‌ها با استفاده از شواهد جمع‌آوری شده (مانند اسناد، مقالات و داده‌های معتبر) به پیش‌بینی نهایی در مورد درستی یا نادرستی یک ادعا می‌پردازند. روش‌شناسی در اینجا شامل استخراج ویژگی‌های کلیدی از شواهد و مقایسه آن‌ها با محتوای ادعا، اغلب با استفاده از شبکه‌های عصبی پیچیده مانند مدل‌های ترنسفورمر (Transformer models) است.

یکی از نوآوری‌های کلیدی این تحقیق، پرداختن به چالش “جعبه سیاه” بودن مدل‌های یادگیری عمیق است. نویسنده به جای پذیرش محدودیت‌های این مدل‌ها، به دنبال توسعه “اولین راهکارهای توضیحی” است. اگرچه جزئیات دقیق این راهکارها در چکیده نیامده، اما می‌توان استنباط کرد که این روش‌ها ممکن است شامل موارد زیر باشند:

  • استفاده از مکانیسم‌های توجه (Attention Mechanisms) که نشان می‌دهند کدام بخش از متن برای تصمیم‌گیری مدل مهم بوده است.
  • توسعه مدل‌های قابل تفسیر ذاتی که ساختار داخلی آن‌ها به گونه‌ای است که تصمیماتشان ذاتاً قابل توضیح هستند.
  • به‌کارگیری روش‌های توضیح‌پذیری پسینی (Post-hoc Explainability) مانند LIME (Local Interpretable Model-agnostic Explanations) یا SHAP (SHapley Additive exPlanations) که توضیحات محلی برای پیش‌بینی‌های مدل‌های پیچیده ارائه می‌دهند.

علاوه بر این، پایان‌نامه به ارائه راهکارهای عمومی‌تر یادگیری ماشین برای پردازش زبان طبیعی در زمینه داده‌های برچسب‌گذاری شده محدود می‌پردازد. این بخش از روش‌شناسی برای حل چالش رایج کمبود داده‌های آموزشی با کیفیت در بسیاری از حوزه‌های NLP، از جمله راستی‌آزمایی، اهمیت فراوانی دارد. این امر ممکن است شامل تکنیک‌هایی مانند یادگیری انتقالی (Transfer Learning)، یادگیری نیمه‌نظارتی (Semi-supervised Learning) یا تقویت داده (Data Augmentation) باشد که به مدل‌ها اجازه می‌دهند با داده‌های کمتر، عملکرد خوبی داشته باشند.

یافته‌های کلیدی

پژوهش ایزابل آگوستنشتاین دستاوردهای مهمی در چندین جبهه مرتبط با راستی‌آزمایی خودکار و توضیح‌پذیری هوش مصنوعی ارائه کرده است. یافته‌های کلیدی این پایان‌نامه را می‌توان در چند بخش اصلی خلاصه کرد:

۱. پیشرفت در اجزای راستی‌آزمایی خودکار:
این تحقیق به بهبود قابل توجهی در عملکرد اجزای مختلف سیستم‌های راستی‌آزمایی خودکار منجر شده است. از جمله:

  • دقت بالاتر در تشخیص ادعاهای نیازمند بررسی: مدل‌های توسعه‌یافته قادرند با کارایی بیشتری، ادعاهایی را که باید مورد راستی‌آزمایی قرار گیرند، از میان انبوه اطلاعات شناسایی کنند. این امر به کاهش بار کاری بر راستی‌آزماهای انسانی و افزایش سرعت واکنش به اطلاعات نادرست کمک می‌کند.
  • افزایش صحت در تشخیص موضع‌گیری: سیستم توانایی بهتری در تشخیص این که آیا یک متن خاص (مانند یک توییت یا مقاله) یک ادعا را تأیید، رد یا موضع بی‌طرفی دارد، نشان می‌دهد. این امر برای درک چشم‌انداز کلی یک بحث و شناسایی روایت‌های غالب حیاتی است.
  • پیشرفت در پیش‌بینی صحت ادعاها: مهمتر از همه، دقت در تعیین درستی یا نادرستی نهایی یک ادعا بر اساس شواهد موجود افزایش یافته است. این پیشرفت‌ها، پایه و اساس سیستم‌های راستی‌آزمایی مؤثرتر را فراهم می‌آورند.

۲. راهکارهای عمومی برای یادگیری ماشین با داده‌های محدود:
یکی از ابعاد گسترده‌تر این پایان‌نامه، ارائه راهکارهای نوآورانه برای یادگیری ماشین در شرایط کمبود داده‌های برچسب‌گذاری‌شده در حوزه پردازش زبان طبیعی است. این یافته‌ها فراتر از صرفاً راستی‌آزمایی هستند و می‌توانند در بسیاری از کاربردهای NLP که جمع‌آوری داده‌های آموزشی حجیم و برچسب‌گذاری‌شده دشوار یا پرهزینه است، مورد استفاده قرار گیرند. به عنوان مثال، یک سیستم می‌تواند با تعداد کمی مثال برچسب‌گذاری شده، عملکرد قابل قبولی در طبقه‌بندی متون تخصصی داشته باشد.

۳. ارائه اولین راهکارهای برای راستی‌آزمایی توضیحی:
مهمترین و نوآورانه‌ترین دستاورد این تحقیق، ارائه راهکارهای اولیه و پیشرو برای توضیح‌پذیری در فرآیند راستی‌آزمایی است. این راهکارها تلاش می‌کنند تا ماهیت جعبه سیاه مدل‌های یادگیری عمیق را شفاف‌تر کنند. به جای اینکه سیستم صرفاً اعلام کند “این ادعا نادرست است”، اکنون می‌تواند توضیحی ارائه دهد، مانند:

  • “این ادعا نادرست است زیرا سه منبع خبری معتبر (نام برده می‌شوند) آن را با شواهد متضاد (ذکر شواهد) رد کرده‌اند.”
  • “پیش‌بینی مدل مبتنی بر این است که جمله ‘اعداد ارائه شده اغراق‌آمیز هستند’ در مقاله مرجع کلیدی‌ترین بخش برای رد ادعا بوده است.”
  • “این ادعا با اطلاعات موجود در گزارش سالانه سازمان بهداشت جهانی مطابقت ندارد.”

این قابلیت توضیح‌پذیری، اعتماد کاربران را به سیستم‌های خودکار به شدت افزایش می‌دهد و به آن‌ها امکان می‌دهد تا دلیل پشت یک تصمیم را درک کنند، که برای پذیرش عمومی فناوری‌های هوش مصنوعی در حوزه‌های حساس مانند اخبار و اطلاعات حیاتی است.

کاربردها و دستاوردها

دستاوردهای این پژوهش، نه تنها در زمینه علمی، بلکه در کاربردهای عملی نیز پتانسیل تحول‌آفرینی دارند. مهمترین کاربردها و دستاوردهای آن عبارتند از:

۱. تقویت پلتفرم‌های اجتماعی و خبری:
این تحقیق می‌تواند به طور مستقیم به پلتفرم‌های شبکه‌های اجتماعی و سازمان‌های خبری کمک کند تا با سرعت و دقت بیشتری با انتشار اطلاعات نادرست مقابله کنند. سیستم‌های راستی‌آزمایی توضیحی می‌توانند به طور خودکار محتوای مشکوک را پرچم‌گذاری کرده و نه تنها اعلام کنند که چرا یک ادعا نادرست است، بلکه منابع و دلایل آن را نیز ارائه دهند. این امر به کاربران کمک می‌کند تا به جای صرفاً مشاهده یک برچسب “نادرست”، فرآیند فکری پشت آن را درک کنند و سواد رسانه‌ای خود را ارتقا دهند.

۲. افزایش اعتماد عمومی به هوش مصنوعی:
یکی از بزرگترین موانع پذیرش گسترده هوش مصنوعی، عدم شفافیت و ماهیت “جعبه سیاه” آن است. با ارائه قابلیت توضیح‌پذیری، این تحقیق گامی بلند در جهت ساخت سیستم‌های هوش مصنوعی قابل اعتمادتر برمی‌دارد. وقتی یک سیستم می‌تواند دلیل تصمیم خود را توضیح دهد، کاربران و ذی‌نفعان احساس کنترل و درک بیشتری خواهند داشت، که این امر به نوبه خود منجر به افزایش اعتماد می‌شود. این مسئله به ویژه در حوزه‌های حساسی مانند پزشکی، حقوق، و خبر حیاتی است.

۳. رعایت قوانین و مقررات:
همانطور که در چکیده اشاره شد، قوانین جدیدی مانند مقررات اتحادیه اروپا، توضیح‌پذیری مدل‌های هوش مصنوعی و شفافیت در گزارش‌دهی پلتفرم‌های آنلاین را الزامی کرده‌اند. دستاوردهای این پژوهش، راهکارهای عملی را برای کمک به شرکت‌ها و سازمان‌ها برای رعایت این الزامات قانونی ارائه می‌دهد. این نه تنها از جریمه‌های سنگین جلوگیری می‌کند، بلکه به ایجاد یک اکوسیستم دیجیتال اخلاقی‌تر و مسئولانه‌تر کمک می‌کند.

۴. توسعه ابزارهای آموزشی و سواد اطلاعاتی:
توضیحات تولید شده توسط سیستم‌های راستی‌آزمایی می‌توانند به عنوان ابزارهای آموزشی قدرتمند عمل کنند. این توضیحات می‌توانند به افراد نشان دهند که چگونه اطلاعات را ارزیابی کنند، منابع معتبر را تشخیص دهند و به تفکر انتقادی در مورد محتوای آنلاین بپردازند. به عنوان مثال، با دیدن اینکه چرا یک ادعا بر اساس شواهد خاصی رد شده است، کاربران می‌توانند مهارت‌های تشخیص اطلاعات نادرست خود را تقویت کنند.

۵. پیشرفت در تحقیقات گسترده‌تر یادگیری ماشین:
فراتر از راستی‌آزمایی، این پایان‌نامه راهکارهای عمومی‌تری برای یادگیری ماشین با داده‌های محدود در NLP ارائه می‌دهد. این راهکارها می‌توانند در طیف وسیعی از کاربردهای دیگر NLP مانند تحلیل احساسات در زبان‌های کم‌منبع، خلاصه‌سازی متن، یا ترجمه ماشینی در حوزه‌های تخصصی که داده‌های برچسب‌گذاری شده فراوان نیستند، به کار روند. این امر به توسعه سیستم‌های هوش مصنوعی کارآمدتر و قابل انطباق‌تر کمک می‌کند.

به طور خلاصه، دستاوردهای این تحقیق به ما کمک می‌کنند تا نه تنها با چالش اطلاعات نادرست به شکلی موثرتر مبارزه کنیم، بلکه آینده‌ای را بسازیم که در آن هوش مصنوعی نه تنها قدرتمند بلکه قابل اعتماد، شفاف و مسئولیت‌پذیر باشد.

نتیجه‌گیری

پایان‌نامه “به سوی راستی‌آزمایی توضیحی” نوشته ایزابل آگوستنشتاین، گامی حیاتی و نوآورانه در مسیر مقابله با یکی از مبرم‌ترین چالش‌های عصر دیجیتال، یعنی شیوع اطلاعات نادرست و گمراه‌کننده، محسوب می‌شود. این تحقیق نه تنها به توسعه و بهبود سیستم‌های خودکار راستی‌آزمایی در مراحل مختلف—شامل تشخیص ادعاهای نیازمند بررسی، تعیین موضع‌گیری و پیش‌بینی صحت—می‌پردازد، بلکه خلاء حیاتی در زمینه توضیح‌پذیری (Explainability) مدل‌های هوش مصنوعی را هدف قرار می‌دهد.

با وجود پیشرفت‌های چشمگیر در یادگیری عمیق و پردازش زبان طبیعی، ماهیت “جعبه سیاه” این مدل‌ها، مانعی جدی بر سر راه پذیرش و اعتماد عمومی به آن‌ها بوده است. در جهانی که تصمیم‌گیری‌های مهم به طور فزاینده‌ای به هوش مصنوعی واگذار می‌شوند، توانایی درک “چرا” و “چگونگی” یک تصمیم به یک ضرورت اخلاقی، قانونی و عملی تبدیل شده است. این پژوهش، با ارائه اولین راهکارهای عملی برای راستی‌آزمایی توضیحی، پاسخی هوشمندانه به این نیاز روزافزون می‌دهد.

دستاوردهای این تحقیق فراتر از بهبود صرف دقت در راستی‌آزمایی است. با توسعه مدل‌هایی که می‌توانند دلایل پشت پیش‌بینی‌های خود را شفاف‌سازی کنند، این پایان‌نامه به:

  • افزایش اعتماد کاربران به پلتفرم‌های دیجیتال و سیستم‌های هوش مصنوعی.
  • کمک به رعایت مقررات قانونی سخت‌گیرانه در زمینه شفافیت هوش مصنوعی.
  • توانمندسازی کاربران از طریق افزایش سواد رسانه‌ای و توانایی تشخیص اطلاعات نادرست.
  • ارائه راهکارهای عمومی‌تر یادگیری ماشین برای مقابله با چالش کمبود داده در سایر حوزه‌های NLP.

در نهایت، این پایان‌نامه نه تنها چارچوبی قوی برای مبارزه موثرتر با اطلاعات نادرست ارائه می‌دهد، بلکه راه را برای توسعه نسلی جدید از سیستم‌های هوش مصنوعی هموار می‌کند که نه تنها قدرتمند هستند، بلکه شفاف، قابل اعتماد و مسئولیت‌پذیر نیز می‌باشند. این یک گام مهم به سوی آینده‌ای است که در آن فناوری به جای افزودن به سردرگمی، به شفافیت و درک متقابل کمک می‌کند.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله به سوی راستی‌آزمایی توضیحی به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا