,

مقاله تعبیه‌سازی متن زمینه‌ای برای زبان Twi به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی

150,000 تومان

📚 مقاله علمی

عنوان فارسی مقاله تعبیه‌سازی متن زمینه‌ای برای زبان Twi
نویسندگان Paul Azunre, Salomey Osei, Salomey Addo, Lawrence Asamoah Adu-Gyamfi, Stephen Moore, Bernard Adabankah, Bernard Opoku, Clara Asare-Nyarko, Samuel Nyarko, Cynthia Amoaba, Esther Dansoa Appiah, Felix Akwerh, Richard Nii Lante Lawson, Joel Budu, Emmanuel Debrah, Nana Boateng, Wisdom Ofori, Edwin Buabeng-Munkoh, Franklin Adjei, Isaac Kojo Essel Ampomah, Joseph Otoo, Reindorf Borkor, Standylove Birago Mensah, Lucien Mensah, Mark Amoako Marcel
دسته‌بندی علمی Computation and Language,Artificial Intelligence

📘 محتوای این مقاله آموزشی

  • شامل فایل اصلی مقاله (PDF انگلیسی)
  • به همراه فایل PDF توضیح فارسی با بیان ساده و روان
  • دارای پادکست صوتی فارسی توضیح کامل مقاله
  • به همراه ویدیو آموزشی فارسی برای درک عمیق‌تر مفاهیم مقاله

🎯 همه‌ی فایل‌ها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شده‌اند.

چنانچه در دانلود فایل‌ها با مشکلی مواجه شدید، لطفاً از طریق واتس‌اپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینک‌ها فوراً برایتان مجدداً ارسال شوند.

تعبیه‌سازی متن زمینه‌ای برای زبان Twi: گامی نوین در پردازش زبان‌های کم‌منبع

معرفی مقاله و اهمیت آن

در دهه‌های اخیر، شاهد دگرگونی‌های شگرفی در حوزه پردازش زبان‌های طبیعی (NLP) بوده‌ایم که عمدتاً به لطف ظهور مدل‌های زبانی مبتنی بر معماری ترنسفورمر (Transformer) رقم خورده است. این مدل‌ها که توانایی بی‌نظیری در درک و تولید زبان انسان از طریق تعبیه‌سازی‌های زمینه‌ای (Contextual Embeddings) از خود نشان داده‌اند، برای زبان‌های پرمنابعی نظیر انگلیسی، چینی و روسی به ابزارهای قدرتمندی بدل شده‌اند. این فناوری پیشرفته به طور چشمگیری عملکرد سیستم‌های هوش مصنوعی را در کاربردهایی مانند ترجمه ماشینی، خلاصه‌سازی متن، و پاسخگویی به سوالات بهبود بخشیده است.

با این حال، این پیشرفت‌های خیره‌کننده اغلب در زبان‌هایی که دارای منابع داده‌ای غنی و پشتیبانی تحقیقاتی گسترده هستند، متمرکز شده‌اند. در مقابل، زبان‌های کم‌منبع، به ویژه بسیاری از زبان‌های قاره آفریقا، همچنان از مزایای این فناوری‌های نوین محروم مانده‌اند. این شکاف دیجیتال نه تنها دسترسی میلیون‌ها نفر را به خدمات مبتنی بر هوش مصنوعی محدود می‌کند، بلکه مانع از توسعه ابزارهای حیاتی برای حفظ و ترویج این زبان‌ها می‌شود. مقاله حاضر با عنوان “تعبیه‌سازی متن زمینه‌ای برای زبان Twi” (Contextual Text Embeddings for Twi)، دقیقاً به همین چالش می‌پردازد و یک گام بلند و حیاتی در جهت رفع این نابرابری برمی‌دارد.

اهمیت این تحقیق نه تنها در ارائه اولین مدل‌های زبانی مبتنی بر ترنسفورمر برای زبان Twi (یا Akan که پرکاربردترین زبان غنا است) خلاصه می‌شود، بلکه در باز کردن افق‌های جدید برای توسعه NLP در کل منطقه غرب آفریقا و فراتر از آن است. این پژوهش نشان می‌دهد که با تلاش هدفمند، می‌توان فناوری‌های پیشرفته هوش مصنوعی را برای خدمت به زبان‌هایی که کمتر مورد توجه قرار گرفته‌اند، بومی‌سازی کرد و پتانسیل‌های عظیمی برای پیشرفت‌های آینده فراهم آورد.

نویسندگان و زمینه تحقیق

این مقاله حاصل یک تلاش جمعی و همکاری گسترده‌ای است که توسط تیمی متشکل از بیست و شش محقق، از جمله Paul Azunre، Salomey Osei و Salomey Addo، انجام شده است. حجم و تنوع تیم نویسندگان خود نشان‌دهنده پیچیدگی و وسعت این پروژه است و نیاز به تخصص‌های مختلف در زمینه زبان‌شناسی، علوم کامپیوتر، و هوش مصنوعی را برجسته می‌کند. این ترکیب از محققان از نهادها و سازمان‌های مختلف، تعهد عمیق آن‌ها به پیشبرد مرزهای دانش در حوزه پردازش زبان‌های طبیعی آفریقایی را نشان می‌دهد.

انگیزه اصلی این تحقیق، پر کردن خلأ موجود در دسترسی به فناوری‌های نوین NLP برای زبان‌های غنایی بوده است. با وجود اینکه زبان Twi یا Akan، به عنوان پرمخاطب‌ترین زبان در غنا شناخته می‌شود و بخش قابل توجهی از جمعیت این کشور به آن صحبت می‌کنند، تاکنون هیچ مدل زبانی پیشرفته‌ای مبتنی بر ترنسفورمر برای آن توسعه نیافته بود. این وضعیت نه تنها بهره‌مندی میلیون‌ها کاربر از مزایای هوش مصنوعی را به تعویق می‌انداخت، بلکه مانع از ایجاد محتوای دیجیتال بومی و تسهیل ارتباطات در این زبان می‌شد.

این تیم تحقیقاتی با شناسایی این نیاز مبرم، تصمیم گرفت تا پیشگام شود و با توسعه مدل‌هایی اختصاصی برای گویش‌های Akuapem و Asante زبان Twi، زیرساخت‌های لازم برای کاربردهای پیشرفته NLP را فراهم آورد. این رویکرد نشان‌دهنده درکی عمیق از اهمیت نقش زبان در هویت فرهنگی و اقتصادی جوامع است و به دنبال توانمندسازی دیجیتالی این زبان از طریق فناوری‌های روز دنیاست.

چکیده و خلاصه محتوا

چکیده مقاله به وضوح هدف اصلی و دستاوردهای کلیدی این پژوهش را تبیین می‌کند. در حالی که مدل‌های زبانی مبتنی بر ترنسفورمر نظیر BERT و GPT، چشم‌انداز پردازش زبان‌های طبیعی (NLP) را برای زبان‌های پرمنابع متحول کرده‌اند، این فناوری هنوز برای هیچ‌یک از زبان‌های غنایی وجود نداشت. مقاله حاضر این خلأ را هدف قرار داده و اولین مدل‌های این چنینی را برای Twi یا Akan، پرکاربردترین زبان غنا، معرفی می‌کند.

مهمترین سهم این پژوهش، توسعه چندین مدل زبانی ترنسفورمر از پیش آموزش‌دیده برای گویش‌های Akuapem و Asante زبان Twi است. این مدل‌ها راه را برای پیشرفت در حوزه‌های کاربردی حیاتی هموار می‌کنند، از جمله:

  • شناسایی موجودیت‌های نام‌گذاری شده (NER): توانایی تشخیص و طبقه‌بندی اسامی افراد، مکان‌ها، سازمان‌ها و سایر موجودیت‌ها در متن.
  • ترجمه ماشینی عصبی (NMT): بهبود کیفیت ترجمه خودکار بین Twi و سایر زبان‌ها.
  • تحلیل احساسات (SA): درک و تعیین بار احساسی (مثبت، منفی، خنثی) متون به زبان Twi.
  • برچسب‌گذاری اجزای کلام (POS tagging): شناسایی نقش دستوری هر کلمه (مثلاً اسم، فعل، صفت).

محققان به طور خاص، چهار نسخه مختلف از مدل ABENA (مخفف A BERT model Now in Akan) را معرفی کرده‌اند که بر روی مجموعه‌ای از پیکره‌های متنی Akan به دقت تنظیم (fine-tuned) شده‌اند. علاوه بر این، مدل BAKO (مخفف BERT with Akan Knowledge only) نیز توسعه یافته که برخلاف ABENA، از ابتدا و صرفاً با دانش زبان Akan آموزش دیده است. این رویکرد دوگانه به محققان اجازه می‌دهد تا اثربخشی روش‌های مختلف آموزش را بررسی کنند.

یک دستاورد مهم دیگر این پروژه، انتشار عمومی مدل‌ها از طریق مرکز مدل‌های Hugging Face است. این اقدام نه تنها به جامعه تحقیقاتی امکان دسترسی و استفاده از این مدل‌ها را می‌دهد، بلکه همکاری‌های آینده را تشویق می‌کند. مقاله همچنین استفاده از این مدل‌ها را با یک مثال ساده از طبقه‌بندی احساسات نشان می‌دهد که به وضوح قابلیت‌های آن‌ها را اثبات می‌کند.

روش‌شناسی تحقیق

این پژوهش بر مبنای توسعه و آموزش مدل‌های زبانی ترنسفورمر بنا شده است که رویکردی استاندارد در NLP مدرن محسوب می‌شود، اما با این تفاوت که این بار بر روی داده‌های زبان Twi متمرکز شده است. برای دستیابی به این هدف، محققان دو خانواده اصلی از مدل‌ها را توسعه داده‌اند:

ABENA – A BERT model Now in Akan

مدل‌های ABENA بر اساس رویکرد تنظیم دقیق (fine-tuning) بنا شده‌اند. این بدان معناست که به جای آموزش یک مدل از ابتدا، محققان از مدل‌های BERT از پیش آموزش‌دیده موجود برای زبان‌های دیگر (احتمالاً انگلیسی) استفاده کرده و آن‌ها را با استفاده از پیکره‌های متنی گسترده‌ای از زبان Twi، به دقت تنظیم کرده‌اند. این روش معمولاً زمانی که منابع داده‌ای برای آموزش از ابتدا محدود است، مؤثرتر است، زیرا مدل از قبل دانش زبانی عمومی را دارا می‌باشد. چهار نسخه مختلف از ABENA ارائه شده است که می‌تواند نشان‌دهنده بررسی معماری‌های مختلف، Hyperparameterها، یا رویکردهای گوناگون در تنظیم دقیق باشد.

BAKO – BERT with Akan Knowledge only

در مقابل ABENA، مدل BAKO با رویکرد آموزش از ابتدا (trained from scratch) توسعه یافته است. این یعنی مدل بدون هیچ دانش قبلی از زبان‌های دیگر، تنها با استفاده از پیکره‌های متنی زبان Akan آموزش دیده است. این روش نیازمند حجم بسیار زیادی از داده‌های متنی و منابع محاسباتی قوی است، اما مزیت آن در این است که مدل کاملاً به خصوصیات و ظرافت‌های زبان Twi عادت می‌کند و از هیچ‌گونه سوگیری ناشی از آموزش بر روی زبان‌های دیگر رنج نمی‌برد. این رویکرد به ویژه برای زبان‌های کم‌منبع که تفاوت‌های ساختاری زیادی با زبان‌های پرمنابع دارند، می‌تواند بسیار مفید باشد.

پیکره‌های متنی Akan

ستون فقرات این تحقیق، جمع‌آوری و پردازش پیکره‌های متنی Akan بوده است. این پیکره‌ها شامل حجم عظیمی از داده‌های متنی از منابع مختلف Twi هستند که برای آموزش و تنظیم دقیق مدل‌ها استفاده شده‌اند. کیفیت و کمیت این داده‌ها نقش حیاتی در موفقیت مدل‌ها ایفا می‌کند. محققان به طور خاص به گویش‌های Akuapem و Asante اشاره کرده‌اند که نشان می‌دهد داده‌های آموزشی با هدف پوشش تنوعات زبانی در Twi جمع‌آوری و آماده‌سازی شده‌اند.

روش‌شناسی پژوهش تأکید بر ایجاد ابزارهای قدرتمند و انعطاف‌پذیر دارد که هم از طریق تنظیم مدل‌های موجود و هم با آموزش مدل‌های جدید از پایه، امکان‌پذیر است. این رویکرد جامع، قابلیت اطمینان و کارایی مدل‌های توسعه‌یافته را تضمین می‌کند و زمینه‌ساز کاربردهای گسترده در آینده خواهد بود.

یافته‌های کلیدی

نتایج حاصل از این پژوهش، گام‌های مهمی را در پیشبرد قابلیت‌های NLP برای زبان Twi نشان می‌دهند. مهمترین یافته‌های کلیدی این مقاله عبارتند از:

  • توسعه اولین تعبیه‌سازی‌های متن زمینه‌ای برای Twi: این تحقیق با موفقیت اولین مدل‌های ترنسفورمر را که قادر به درک و تولید تعبیه‌سازی‌های زمینه‌ای برای زبان Twi هستند، ارائه کرده است. این تعبیه‌سازی‌ها، که نمایش‌های عددی معناداری از کلمات و عبارات در بافت متنی خود هستند، برای انجام وظایف پیچیده NLP ضروری می‌باشند و خلأ بزرگی را در این حوزه پر می‌کنند.

  • معرفی مدل‌های ABENA و BAKO: مقاله چهار نسخه مختلف از مدل ABENA (بر اساس تنظیم دقیق BERT) و مدل BAKO (آموزش‌دیده از ابتدا) را معرفی کرده است. وجود این دو رویکرد متفاوت، نه تنها نشان‌دهنده انعطاف‌پذیری در انتخاب استراتژی آموزش مدل است، بلکه امکان مقایسه کارایی این رویکردها را برای زبان‌های کم‌منبع فراهم می‌آورد. این مدل‌ها به خوبی نشان داده‌اند که می‌توانند درک عمیقی از زبان Twi در سطح کلمات و جملات ارائه دهند.

  • اثبات کارایی از طریق طبقه‌بندی احساسات: برای اثبات قابلیت‌های عملی مدل‌های توسعه‌یافته، محققان یک مثال از طبقه‌بندی احساسات (Sentiment Classification) را ارائه داده‌اند. این مثال نشان می‌دهد که مدل‌ها قادرند بار احساسی متون به زبان Twi را با دقت قابل قبولی تشخیص دهند. به عنوان مثال، یک جمله مانند “Me ho yɛ me fɛ paa” (من خیلی خوبم) به درستی به عنوان مثبت و جمله “M’ani abere wo ho” (من از تو ناراحتم) به عنوان منفی شناسایی می‌شود. این توانایی، پایه و اساس کاربردهایی نظیر تحلیل افکار عمومی در رسانه‌های اجتماعی را تشکیل می‌دهد.

  • انتشار عمومی مدل‌ها در Hugging Face: یکی از مهمترین دستاوردهای این پژوهش، تصمیم به متن‌باز (open-source) کردن مدل‌ها و انتشار آن‌ها از طریق Hugging Face model hub است. این اقدام، دسترسی گسترده به این مدل‌ها را برای محققان، توسعه‌دهندگان و علاقه‌مندان به NLP در سراسر جهان فراهم می‌آورد. با این کار، مسیر برای تحقیقات آتی، بهبود مدل‌ها و توسعه کاربردهای جدید برای Twi و سایر زبان‌های آفریقایی هموارتر می‌شود. این حرکت به تقویت جامعه تحقیقاتی در زمینه NLP برای زبان‌های کم‌منبع کمک شایانی می‌کند.

  • هموارسازی راه برای پیشرفت‌های آتی: این مدل‌ها به عنوان یک پایه و اساس محکم عمل می‌کنند که می‌توان بر روی آن‌ها برای توسعه سیستم‌های NLP پیچیده‌تر برای Twi بنا نهاد. این شامل ساخت ابزارهایی برای ترجمه ماشینی پیشرفته، سیستم‌های پرسش و پاسخ، و چت‌بات‌ها به زبان Twi است که می‌تواند ارتباطات دیجیتال را برای میلیون‌ها نفر بهبود بخشد.

در مجموع، یافته‌های این تحقیق نه تنها یک دستاورد فنی مهم برای زبان Twi است، بلکه الگویی برای چگونگی توسعه فناوری‌های NLP برای سایر زبان‌های کم‌منبع در سراسر جهان ارائه می‌دهد و به تحقق عدالت زبانی در فضای دیجیتال کمک می‌کند.

کاربردها و دستاوردها

توسعه مدل‌های تعبیه‌سازی متن زمینه‌ای برای زبان Twi، دستاوردهای چشمگیری را به همراه دارد و زمینه‌ساز کاربردهای گسترده‌ای در حوزه‌های مختلف پردازش زبان‌های طبیعی (NLP) می‌شود. این مدل‌ها نه تنها به زبان Twi جان می‌بخشند، بلکه پتانسیل عظیمی برای توانمندسازی کاربران و توسعه‌دهندگان در غنا و سراسر قاره آفریقا ایجاد می‌کنند:

  • شناسایی موجودیت‌های نام‌گذاری شده (NER): این کاربرد به سیستم‌های هوش مصنوعی امکان می‌دهد تا اسامی افراد، مکان‌ها، سازمان‌ها، تاریخ‌ها و سایر موجودیت‌های مهم را در متون Twi به دقت شناسایی و دسته‌بندی کنند. به عنوان مثال، در یک خبر به زبان Twi، NER می‌تواند “Nana Addo Dankwa Akufo-Addo” را به عنوان نام شخص (رئیس جمهور)، “Accra” را به عنوان مکان و “Parliament” را به عنوان سازمان تشخیص دهد. این قابلیت برای جمع‌آوری اطلاعات، هوش تجاری و تحلیل اسناد حقوقی بسیار حیاتی است.

  • ترجمه ماشینی عصبی (NMT): با داشتن تعبیه‌سازی‌های متنی قوی، توسعه سیستم‌های NMT برای ترجمه بین Twi و سایر زبان‌ها (مانند انگلیسی یا فرانسوی) به طور چشمگیری بهبود می‌یابد. این فناوری می‌تواند موانع زبانی را کاهش دهد و ارتباطات بین‌المللی و دسترسی به اطلاعات را برای Twi‌زبان‌ها تسهیل کند. تصور کنید که یک مقاله علمی به انگلیسی بلافاصله به Twi ترجمه شود یا بالعکس.

  • تحلیل احساسات (SA): مدل‌های توسعه‌یافته قادرند بار احساسی یک متن را تعیین کنند (مثلاً مثبت، منفی یا خنثی). این قابلیت برای تحلیل نظرات مشتریان، پایش شبکه‌های اجتماعی و درک افکار عمومی در مورد محصولات، خدمات یا سیاست‌ها به زبان Twi بسیار ارزشمند است. مثلاً، یک شرکت می‌تواند نظرات کاربران Twi را درباره محصول جدیدش تحلیل کرده و متوجه شود که چه جنبه‌هایی از آن مورد پسند یا ناپسند قرار گرفته است.

  • برچسب‌گذاری اجزای کلام (POS tagging): این فرآیند شامل تخصیص نقش دستوری صحیح به هر کلمه در یک جمله است (مانند اسم، فعل، صفت، قید). POS tagging برای تحلیل‌های گرامری، ساخت واژه‌نامه‌های دقیق و بهبود عملکرد سایر وظایف NLP مانند ترجمه ماشینی و تشخیص گفتار بسیار مهم است. با این مدل‌ها، ساختار زبان Twi در سطح عمیق‌تری قابل فهم و پردازش خواهد بود.

دستاوردها و تأثیرات گسترده‌تر:

فراتر از کاربردهای فنی، این پژوهش دستاوردهای مهم‌تری نیز دارد:

  • توانمندسازی دیجیتالی زبان Twi: این مدل‌ها، زبان Twi را وارد عصر دیجیتال می‌کنند و امکان ایجاد ابزارها و پلتفرم‌های متنوعی را فراهم می‌آورند که به کاربران Twi‌زبان اجازه می‌دهد تا به راحتی با فناوری تعامل داشته باشند.

  • حفظ و ترویج زبان: با توسعه ابزارهای هوش مصنوعی برای Twi، علاقه به این زبان در میان نسل‌های جدید افزایش یافته و به حفظ و ترویج آن در فضای آنلاین کمک شایانی می‌شود.

  • پایه‌ریزی برای هوش مصنوعی بومی آفریقایی: این تحقیق به عنوان یک الگوی موفق، الهام‌بخش سایر محققان برای توسعه مدل‌های مشابه برای دیگر زبان‌های آفریقایی خواهد بود و به سمت ایجاد یک اکوسیستم هوش مصنوعی بومی و متنوع در قاره آفریقا حرکت می‌کند.

  • تسهیل دسترسی به اطلاعات: این مدل‌ها می‌توانند به Twi‌زبان‌ها کمک کنند تا به اطلاعات بیشتری در زبان مادری خود دسترسی پیدا کنند، که این امر به نوبه خود به توسعه آموزشی، اقتصادی و اجتماعی آن‌ها کمک می‌کند.

این دستاوردها نشان‌دهنده پتانسیل عظیم هوش مصنوعی برای خدمت به جوامع زبانی مختلف و کاهش شکاف دیجیتال در مقیاس جهانی است.

نتیجه‌گیری

مقاله “تعبیه‌سازی متن زمینه‌ای برای زبان Twi” یک نقطه عطف مهم و الهام‌بخش در حوزه پردازش زبان‌های طبیعی (NLP)، به ویژه برای زبان‌های کم‌منبع، محسوب می‌شود. این پژوهش نه تنها شکافی حیاتی در دسترسی زبان Twi به فناوری‌های پیشرفته ترنسفورمر را پر می‌کند، بلکه الگویی قابل اجرا برای چگونگی بومی‌سازی هوش مصنوعی برای خدمت به زبان‌هایی که تاکنون نادیده گرفته شده‌اند، ارائه می‌دهد.

با توسعه موفقیت‌آمیز مدل‌های ABENA (تنظیم دقیق‌شده) و BAKO (آموزش‌دیده از ابتدا)، محققان زیربنای مستحکمی برای طیف وسیعی از کاربردهای NLP فراهم آورده‌اند. از شناسایی موجودیت‌های نام‌گذاری شده (NER) و ترجمه ماشینی عصبی (NMT) گرفته تا تحلیل احساسات (SA) و برچسب‌گذاری اجزای کلام (POS tagging)، پتانسیل این مدل‌ها برای توانمندسازی دیجیتالی زبان Twi و تسهیل ارتباطات و دسترسی به اطلاعات بی‌اندازه است.

تصمیم به انتشار عمومی این مدل‌ها از طریق Hugging Face model hub، یک گام بسیار ارزشمند است. این اقدام نه تنها به جامعه تحقیقاتی جهانی اجازه می‌دهد تا از این ابزارها استفاده کرده و آن‌ها را بهبود بخشد، بلکه همکاری و نوآوری را در زمینه NLP برای زبان‌های آفریقایی تشویق می‌کند. این رویکرد متن‌باز، دموکراتیک‌سازی فناوری و عدالت زبانی را در فضای دیجیتال تقویت می‌نماید.

این مقاله به روشنی نشان می‌دهد که سرمایه‌گذاری در توسعه مدل‌های زبانی برای زبان‌های کم‌منبع، نه تنها از نظر فرهنگی و اجتماعی حائز اهمیت است، بلکه از نظر فنی نیز امکان‌پذیر و سودمند است. این پژوهش می‌تواند الهام‌بخش پروژه‌های مشابه برای ده‌ها زبان آفریقایی دیگر باشد که همچنان در حاشیه پیشرفت‌های هوش مصنوعی قرار دارند. امید است که این کار، سنگ بنای یک اکوسیستم هوش مصنوعی چندزبانه و فراگیرتر باشد که در آن هیچ زبانی به دلیل کمبود منابع دیجیتال از قافله پیشرفت باز نماند.

در نهایت، این تحقیق نه تنها یک دستاورد علمی است، بلکه نمادی از تعهد به شمول‌گرایی و برابری در عصر دیجیتال است و راه را برای آینده‌ای روشن‌تر برای زبان Twi و جوامع زبانی مشابه آن هموار می‌سازد.

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “مقاله تعبیه‌سازی متن زمینه‌ای برای زبان Twi به همراه PDF فارسی + پادکست صوتی فارسی + ویدیو آموزشی فارسی”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا