📚 مقاله علمی
| عنوان فارسی مقاله | DropAttack: روش آموزش تقابلی وزن ماسکدار برای بهبود تعمیم شبکههای عصبی |
|---|---|
| نویسندگان | Shiwen Ni, Jiawen Li, Hung-Yu Kao |
| دستهبندی علمی | Machine Learning,Artificial Intelligence,Computation and Language |
📘 محتوای این مقاله آموزشی
- شامل فایل اصلی مقاله (PDF انگلیسی)
- به همراه فایل PDF توضیح فارسی با بیان ساده و روان
- دارای پادکست صوتی فارسی توضیح کامل مقاله
- به همراه ویدیو آموزشی فارسی برای درک عمیقتر مفاهیم مقاله
🎯 همهی فایلها با هدف درک آسان و سریع مفاهیم علمی این مقاله تهیه شدهاند.
چنانچه در دانلود فایلها با مشکلی مواجه شدید، لطفاً از طریق واتساپ با شماره 09395106248 یا از طریق آیدی تلگرام @ma_limbs پیام دهید تا لینکها فوراً برایتان مجدداً ارسال شوند.
DropAttack: روش آموزش تقابلی وزن ماسکدار برای بهبود تعمیم شبکههای عصبی
۱. معرفی مقاله و اهمیت آن
در دنیای امروز که هوش مصنوعی و شبکههای عصبی عمیق به بخش جداییناپذیری از زندگی ما تبدیل شدهاند، قابلیت تعمیمپذیری (Generalization) این مدلها اهمیت حیاتی پیدا میکند. یک مدل کارآمد نه تنها باید روی دادههای آموزشی عملکرد خوبی داشته باشد، بلکه باید بتواند الگوهای آموختهشده را به خوبی روی دادههای جدید و ندیدهشده نیز اعمال کند. با این حال، شبکههای عصبی عمیق، علیرغم تواناییهای خارقالعادهشان، اغلب در برابر حملات تقابلی (Adversarial Attacks) آسیبپذیر هستند؛ ورودیهایی که با تغییرات جزئی و نامحسوس برای چشم انسان، میتوانند باعث خطاهای فاحش در مدل شوند. این آسیبپذیری، اعتماد به سیستمهای مبتنی بر هوش مصنوعی را در کاربردهای حساس مانند خودروهای خودران، تشخیص پزشکی و سیستمهای مالی زیر سوال میبرد.
مقاله اخیر با عنوان “DropAttack: A Masked Weight Adversarial Training Method to Improve Generalization of Neural Networks”، رویکردی نوین را برای مقابله با این چالش ارائه میدهد. این تحقیق، با معرفی روش DropAttack، به دنبال بهبود چشمگیر تعمیمپذیری و پایداری شبکههای عصبی در برابر حملات تقابلی است. اهمیت این مقاله از آنجا ناشی میشود که روشهای آموزش تقابلی موجود، اغلب تنها به ورودی اصلی یا بردارهای تعبیهشده (embedding vectors) حمله میکنند و به همین دلیل، دامنه و تنوع حملاتشان محدود است. DropAttack با گسترش این حملات به لایههای پنهان شبکه و استفاده از تکنیک وزن ماسکدار (masked weight)، نه تنها دامنه آسیبپذیریها را پوشش میدهد بلکه به مدل کمک میکند تا در برابر طیف وسیعتری از اختلالات، مقاومتر شود.
توانایی DropAttack در افزایش کارایی مدلها حتی با استفاده از نصف دادههای آموزشی و همچنین دستیابی به عملکرد پیشتاز (state-of-the-art) در چندین حوزه کلیدی مانند پردازش زبان طبیعی (NLP) و بینایی کامپیوتر (CV)، بر اهمیت عملی و نظری آن میافزاید. این روش میتواند گامی مهم در جهت ساخت سیستمهای هوش مصنوعی قابل اعتمادتر و مقاومتر در دنیای واقعی باشد.
۲. نویسندگان و زمینه تحقیق
این مقاله توسط محققان برجسته، Shiwen Ni، Jiawen Li و Hung-Yu Kao به رشته تحریر درآمده است. این تیم تحقیقاتی در حوزههای پیشرفته یادگیری ماشین (Machine Learning) و هوش مصنوعی (Artificial Intelligence) فعالیت میکنند و تخصص ویژهای در زمینه بهبود پایداری و تعمیمپذیری مدلهای عصبی دارند. زمینه تحقیق این مقاله عمیقاً در تقاطع سه حوزه حیاتی قرار دارد:
- یادگیری ماشین (Machine Learning): که به توسعه الگوریتمهایی میپردازد که به کامپیوترها امکان یادگیری از دادهها را میدهد.
- هوش مصنوعی (Artificial Intelligence): حوزه گستردهای که به ماشینها توانایی فکر کردن، استدلال و تصمیمگیری را میبخشد.
- محاسبات و زبان (Computation and Language): که زیرشاخهای از هوش مصنوعی است و بر پردازش زبان طبیعی و تعامل انسان و کامپیوتر از طریق زبان متمرکز است.
در حال حاضر، یکی از بزرگترین چالشها در این زمینهها، اطمینان از تعمیمپذیری و مقاومت (Robustness) مدلها در برابر دادههای نامتعارف یا دستکاریشده است. محققان به طور فزایندهای متوجه شدهاند که حتی مدلهایی با دقت بالا در مجموعه دادههای استاندارد، میتوانند در برابر ورودیهای تقابلی عملکرد ضعیفی از خود نشان دهند. این ورودیهای تقابلی میتوانند به راحتی از طریق تغییرات بسیار کوچک و غیرقابل درک برای انسان ایجاد شوند، اما برای مدل، به معنای یک ورودی کاملاً متفاوت هستند.
کار پیشگامانه این نویسندگان در روش DropAttack، پاسخی نوآورانه به این مشکل است. آنها با تمرکز بر گسترش دامنه حملات تقابلی از صرفاً ورودیها به لایههای پنهان شبکه، به دنبال ایجاد مدلهایی هستند که نه تنها در برابر حملات سطحی، بلکه در برابر دستکاریهای عمیقتر در فرآیند محاسباتی شبکه نیز مقاوم باشند. این رویکرد، مرزهای فعلی آموزش تقابلی را جابجا کرده و مسیرهای جدیدی را برای تحقیقات آتی در زمینه هوش مصنوعی قابل اعتماد میگشاید.
۳. چکیده و خلاصه محتوا
آموزش تقابلی به عنوان یک روش قدرتمند منظمسازی (regularization) برای بهبود تعمیمپذیری مدلها شناخته شده است. با این حال، روشهای موجود در این زمینه، اغلب تنها به ورودی اصلی یا بردارهای تعبیهشده (embedding vectors) حمله میکنند. این رویکرد محدود، باعث میشود حملات از نظر دامنه و تنوع کافی نباشند و نتوانند تمامی نقاط ضعف احتمالی مدل را پوشش دهند. برای حل این نقیصه و گسترش عمق و وسعت حمله، نویسندگان مقاله، روش نوینی با نام DropAttack را پیشنهاد کردهاند.
هدف اصلی DropAttack، افزایش تعمیمپذیری مدل با افزودن عامدانه بدترین حالت از اختلالات تقابلی (adversarial perturbations) به هر دو بخش ورودی و لایههای پنهان (hidden layers) شبکه است. این اختلالات به شیوهای “ماسکدار” (masked) و در ابعاد مختلف اعمال میشوند، به این معنی که تنها بخشی از وزنها یا ورودیها تحت تأثیر قرار میگیرند. سپس مدل به گونهای آموزش میبیند که ریسکهای تقابلی (adversarial risks) ایجاد شده توسط هر لایه را به حداقل برساند. این رویکرد چندلایه، مقاومت مدل را در برابر طیف وسیعتری از دستکاریها افزایش میدهد.
یکی از ویژگیهای مهم DropAttack، عمومی بودن آن است؛ به این معنا که میتواند برای انواع مختلفی از شبکههای عصبی با معماریهای گوناگون به کار گرفته شود. برای ارزیابی کارایی این روش، نویسندگان آن را بر روی پنج مجموعه داده عمومی در حوزههای پردازش زبان طبیعی (NLP) و بینایی کامپیوتر (CV) مورد آزمایش قرار دادند. نتایج تجربی نشان داد که DropAttack در مقایسه با سایر روشهای آموزش تقابلی و روشهای منظمسازی مرسوم، در تمامی مجموعه دادهها به عملکرد پیشتاز (state-of-the-art) دست یافته است. علاوه بر این، این روش میتواند با استفاده از تنها نصف دادههای آموزشی، عملکردی مشابه با روشهای آموزش استاندارد را ارائه دهد که نشاندهنده کارایی بالای آن در مصرف منابع است.
تحلیلهای نظری نشان میدهند که DropAttack قادر است منظمسازی گرادیان (gradient regularization) را به صورت تصادفی بر روی برخی از پارامترهای ورودی و وزن مدل انجام دهد، که این امر به بهبود پایداری فرآیند یادگیری کمک میکند. آزمایشهای بصری بیشتر نیز حاکی از آن است که DropAttack میتواند حداقل ریسک مدل را به منظرههای از دستدهی (loss landscapes) پایینتر و مسطحتری سوق دهد. این ویژگی به معنای پایداری بیشتر مدل در برابر تغییرات کوچک در ورودی و پارامترها است. کد منبع این پروژه به صورت عمومی در آدرس https://github.com/nishiwen1214/DropAttack در دسترس است.
۴. روششناسی تحقیق
روششناسی تحقیق در مقاله DropAttack به گونهای طراحی شده است که نه تنها نوآوری نظری را به نمایش بگذارد، بلکه کارایی عملی آن را نیز در برابر چالشهای واقعی اثبات کند. هسته اصلی این روششناسی، مفهوم آموزش تقابلی وزن ماسکدار (Masked Weight Adversarial Training) است.
۴.۱. تولید اختلالات تقابلی ماسکدار
بر خلاف روشهای سنتی که فقط ورودی را دستکاری میکنند، DropAttack اختلالات تقابلی را به دو بخش کلیدی اعمال میکند:
- ورودی مدل (Input Layer): مانند سایر روشهای آموزش تقابلی، اختلالاتی به ورودی اصلی اضافه میشود تا مدل را مجبور به یادگیری ویژگیهای مقاومتر کند.
- لایههای پنهان (Hidden Layers): نوآوری اصلی در اینجا است. DropAttack با اعمال ماسکهایی (به صورت تصادفی یا بر اساس اهمیت) بر روی وزنهای لایههای پنهان، تنها بخشهایی از آنها را تحت حمله قرار میدهد. این “ماسکگذاری” باعث میشود که اختلالات به صورت هدفمند و با تنوع بیشتری اعمال شوند و نقاط ضعف عمیقتر در معماری شبکه آشکار گردند. به عنوان مثال، در یک شبکه کانولوشن (CNN)، ممکن است بخشی از فیلترها در یک لایه مشخص تحت اختلال قرار گیرند، در حالی که سایر بخشها دستنخورده باقی بمانند. این رویکرد، مدل را به سمت یادگیری نمایشهایی (representations) سوق میدهد که در برابر تغییرات جزئی در وزنها نیز مقاوم هستند.
این اختلالات نه تنها روی ورودی اعمال میشوند بلکه مستقیماً به پارامترهای (وزنها) لایههای داخلی نیز وارد میشوند. این یک رویکرد جامعتر برای حملات تقابلی است، زیرا شبکه را مجبور میکند تا در برابر دستکاریهای داخلی نیز قوی باشد، نه فقط دستکاریهای خارجی.
۴.۲. به حداقل رساندن ریسکهای تقابلی چندلایه
DropAttack یک تابع از دستدهی (loss function) خاص را برای به حداقل رساندن ریسکهای تقابلی در هر لایه توسعه میدهد. این بدان معناست که مدل نه تنها هدف کلی دستهبندی صحیح را دنبال میکند، بلکه به طور همزمان سعی میکند مقاومت خود را در برابر اختلالات در هر مرحله از پردازش اطلاعات درون شبکه افزایش دهد. این به مدل اجازه میدهد تا یک منظمسازی (regularization) قوی و محلی را در سراسر معماری خود اعمال کند، که منجر به بهبود تعمیمپذیری کلی میشود.
۴.۳. تحلیل نظری
مقاله شامل تحلیلهای نظری است که نشان میدهد DropAttack چگونه میتواند نوعی منظمسازی گرادیان (Gradient Regularization) را انجام دهد. منظمسازی گرادیان به جلوگیری از نوسانات شدید گرادیانها در طول آموزش کمک میکند، که به نوبه خود منجر به منظرههای از دستدهی مسطحتر (flatter loss landscapes) و مدلهایی با تعمیمپذیری بهتر میشود. این بدین معناست که تغییرات کوچک در ورودی یا پارامترها، منجر به تغییرات بزرگ در خروجی نمیشوند و مدل پایدارتر عمل میکند.
۴.۴. ارزیابی تجربی
برای اثبات کارایی، DropAttack روی پنج مجموعه داده عمومی و شناختهشده در دو حوزه اصلی آزمایش شده است:
- پردازش زبان طبیعی (NLP): شامل وظایفی مانند دستهبندی متن (text classification) و تحلیل احساسات (sentiment analysis). به عنوان مثال، مدل باید بتواند یک جمله را حتی اگر کلمات آن کمی تغییر یافته باشند (مثلاً با مترادفهای تقابلی)، به درستی دستهبندی کند.
- بینایی کامپیوتر (CV): شامل وظایفی مانند دستهبندی تصویر (image classification). در اینجا، مدل باید تصاویر را حتی با وجود نویزهای جزئی یا تغییرات تقابلی روی پیکسلها، به درستی تشخیص دهد.
عملکرد DropAttack با روشهای متعدد دیگر آموزش تقابلی (adversarial training) و منظمسازی (regularization) مقایسه شد تا برتری آن به وضوح نشان داده شود. این مقایسهها شامل سنجههای دقت، مقاومت در برابر حملات و کارایی آموزشی بودند.
۵. یافتههای کلیدی
نتایج حاصل از آزمایشهای گسترده مقاله DropAttack، مجموعهای از یافتههای کلیدی را ارائه میدهد که برتری و نوآوری این روش را به وضوح نشان میدهد:
- عملکرد پیشتاز (State-of-the-Art Performance): در تمامی پنج مجموعه داده عمومی که در حوزههای پردازش زبان طبیعی (NLP) و بینایی کامپیوتر (CV) مورد آزمایش قرار گرفتند، DropAttack به عملکردی پیشتاز و بیسابقه دست یافت. این بدان معناست که مدلهای آموزشدیده با DropAttack، نه تنها دقت بالاتری را روی دادههای استاندارد نشان میدهند، بلکه مقاومت قابل توجهی نیز در برابر حملات تقابلی از خود بروز میدهند. برای مثال، در وظایف دستهبندی تصویر، DropAttack توانست نرخ خطای مدل را در حضور نمونههای تقابلی به میزان چشمگیری کاهش دهد، در حالی که دقت روی نمونههای عادی نیز حفظ شد.
- بهبود چشمگیر کارایی آموزشی (Training Efficiency): یکی از مهمترین دستاوردهای عملی DropAttack، توانایی آن در دستیابی به عملکرد مشابه یا حتی بهتر با استفاده از تنها نصف دادههای آموزشی در مقایسه با روشهای استاندارد است. این ویژگی به معنای صرفهجویی قابل توجه در زمان و منابع محاسباتی است. در سناریوهایی که دسترسی به دادههای حجیم گران یا محدود است (مانند دادههای پزشکی یا نظامی)، این مزیت میتواند انقلابی باشد. به عنوان مثال، یک مدل NLP که معمولاً به میلیونها جمله برای آموزش نیاز دارد، با DropAttack میتواند با چند صد هزار جمله به همان سطح از دقت و مقاومت دست یابد.
- منظمسازی گرادیان تصادفی (Random Gradient Regularization): تحلیلهای نظری نشان میدهند که DropAttack به طور ضمنی منظمسازی گرادیان را بر روی برخی از پارامترهای ورودی و وزن مدل اعمال میکند. این پدیده باعث میشود که حساسیت مدل به تغییرات کوچک در ورودی یا وزنها کاهش یابد. این منظمسازی، نوسانات گرادیانها را کنترل کرده و از overfitting (بیشبرازش) جلوگیری میکند، که به نوبه خود به بهبود تعمیمپذیری و پایداری مدل در برابر نویز و حملات کمک شایانی میکند.
- منظرههای از دستدهی مسطحتر و پایینتر (Lower and Flatter Loss Landscapes): آزمایشهای بصری و تحلیلهای عمیقتر نشان دادند که DropAttack میتواند حداقل ریسک مدل را به سمت منظرههای از دستدهی مسطحتر و پایینتری سوق دهد. یک منظره از دستدهی مسطحتر نشاندهنده این است که تغییرات کوچک در پارامترهای مدل، تغییرات ناچیزی در مقدار تابع از دستدهی ایجاد میکنند. این ویژگی بسیار مطلوب است، زیرا مدل را در برابر تغییرات کوچک در دادهها یا وزنها، مقاومتر و پایدارتر میسازد و احتمال گیر افتادن در حداقلهای محلی تیز (sharp local minima) را کاهش میدهد که منجر به تعمیمپذیری بهتر میشود. به عبارت دیگر، مدلهای آموزشدیده با DropAttack در «درههایی» از تابع از دستدهی قرار میگیرند که عرض بیشتری دارند، نه «سوزنهایی» که با کوچکترین حرکت، مدل از آن خارج شود.
این یافتهها به طور کلی نشان میدهند که DropAttack نه تنها یک روش عملی و کارآمد برای بهبود مقاومت و تعمیمپذیری شبکههای عصبی است، بلکه بینشهای نظری عمیقی را نیز در مورد مکانیسمهای زیربنایی این بهبود ارائه میدهد.
۶. کاربردها و دستاوردها
روش DropAttack با توجه به دستاوردهای چشمگیر خود، پتانسیل تحولآفرینی در طیف وسیعی از کاربردهای هوش مصنوعی و یادگیری ماشین را دارد. کاربردها و دستاوردهای اصلی این روش عبارتند از:
-
افزایش پایداری در سیستمهای حیاتی:
در حوزههایی مانند خودروهای خودران، تشخیص پزشکی، سیستمهای دفاعی و مالی که خطاهای مدل میتوانند پیامدهای فاجعهباری داشته باشند، مقاومت در برابر حملات تقابلی حیاتی است. DropAttack با بهبود تعمیمپذیری و پایداری مدلها در برابر ورودیهای دستکاریشده، به افزایش اعتماد به این سیستمها کمک میکند. به عنوان مثال، یک سیستم تشخیص علائم سرطان که با DropAttack آموزش دیده، احتمال کمتری دارد که یک تصویر MRI دستکاریشده را اشتباه تشخیص دهد.
-
بهبود امنیت در پردازش زبان طبیعی (NLP):
سیستمهای NLP مانند فیلترهای هرزنامه (spam filters)، چتباتها، و سامانههای ترجمه ماشینی میتوانند توسط مهاجمان با تغییرات کوچک در متن، فریب بخورند. DropAttack میتواند این سیستمها را در برابر حملات تقابلی متنی (مانند تغییر کلمات با مترادفهای مخرب) مقاومتر کند. این امر به افزایش امنیت در ارتباطات دیجیتال و ارائه خدمات مبتنی بر زبان با کیفیتتر کمک میکند. تصور کنید یک سیستم تشخیص فیشینگ (Phishing) که حتی با تغییرات جزئی در ایمیلهای جعلی، همچنان قادر به شناسایی آنها باشد.
-
مقاومت در بینایی کامپیوتر (CV) برای کاربردهای واقعی:
در بینایی کامپیوتر، حملات تقابلی میتوانند به راحتی باعث خطا در سیستمهای تشخیص چهره، نظارت تصویری و خودروهای خودران شوند. DropAttack با آموزش مدلها برای مقاومت در برابر این حملات (مانند افزودن نویزهای نامرئی به تصاویر تابلوهای راهنمایی)، به افزایش قابلیت اطمینان این سیستمها در محیطهای پیچیده و غیرقابل پیشبینی واقعی کمک میکند. برای مثال، یک خودروی خودران میتواند یک علامت توقف را حتی اگر کمی توسط برچسبهای تقابلی دستکاری شده باشد، به درستی شناسایی کند.
-
کاهش نیاز به دادههای آموزشی عظیم:
یکی از بزرگترین دستاوردهای DropAttack، توانایی آن در دستیابی به عملکرد پیشتاز حتی با نصف دادههای آموزشی است. این ویژگی برای کاربردهایی که جمعآوری دادههای برچسبگذاری شده پرهزینه یا زمانبر است، بسیار باارزش است. این امر به ویژه در حوزههای نوظهور یا تخصصی که دادههای زیادی در دسترس نیستند (مانند بیوانفورماتیک یا حوزههای نظامی)، بسیار مفید خواهد بود و سرعت توسعه و استقرار مدلها را به طور چشمگیری افزایش میدهد.
-
توسعه هوش مصنوعی قابل اعتماد (Trustworthy AI):
در نهایت، DropAttack گامی مهم در جهت توسعه هوش مصنوعی قابل اعتماد است. با ایجاد مدلهایی که نه تنها دقیق هستند بلکه مقاوم، پایدار و با قابلیت تعمیمپذیری بالا عمل میکنند، میتوانیم به سیستمهای هوش مصنوعی بیشتری اعتماد کنیم و آنها را در تصمیمگیریهای حساس انسانی به کار گیریم. این دستاورد به هموار کردن راه برای پذیرش گستردهتر هوش مصنوعی در جامعه کمک میکند.
به طور خلاصه، DropAttack نه تنها یک پیشرفت نظری است، بلکه ابزاری قدرتمند برای ساخت نسل بعدی سیستمهای هوش مصنوعی است که هم هوشمندتر و هم بسیار قابل اعتمادتر هستند.
۷. نتیجهگیری
در این مقاله، روش نوآورانه DropAttack به عنوان یک رویکرد پیشگامانه برای بهبود تعمیمپذیری (generalization) و پایداری شبکههای عصبی در برابر حملات تقابلی (adversarial attacks) معرفی شد. بر خلاف روشهای آموزش تقابلی سنتی که تنها به ورودی یا بردارهای تعبیهشده حمله میکنند، DropAttack با رویکردی جامعتر، اختلالات تقابلی هدفمند و ماسکدار را به هر دو بخش ورودی و لایههای پنهان مدل اعمال میکند. این استراتژی چندلایه، دامنه و تنوع حملات را افزایش داده و مدل را مجبور به یادگیری ویژگیهای مقاومتری در سراسر معماری خود میکند.
نتایج تجربی قاطعانه نشان داد که DropAttack در تمامی پنج مجموعه داده عمومی مورد آزمایش در حوزههای پردازش زبان طبیعی (NLP) و بینایی کامپیوتر (CV)، به عملکرد پیشتاز (state-of-the-art) دست یافته است. علاوه بر این، یکی از برجستهترین دستاوردهای عملی آن، توانایی دستیابی به همان سطح عملکرد با استفاده از تنها نصف دادههای آموزشی است که نشاندهنده کارایی بالای آن در مصرف منابع و پتانسیل آن برای تسریع توسعه مدلها است.
تحلیلهای نظری، مکانیسمهای زیربنایی این موفقیت را روشن کردند و نشان دادند که DropAttack قادر به انجام منظمسازی گرادیان تصادفی (random gradient regularization) بر روی پارامترهای مدل است. این امر به نوبه خود منجر به منظرههای از دستدهی (loss landscapes) پایینتر و مسطحتری میشود که نشاندهنده پایداری بیشتر مدل و تعمیمپذیری بهتر آن در برابر تغییرات کوچک در دادهها یا وزنها است.
کاربردهای بالقوه DropAttack گسترده و تأثیرگذار هستند. این روش میتواند در افزایش قابلیت اطمینان سیستمهای هوش مصنوعی در حوزههای حساس مانند خودروهای خودران، تشخیص پزشکی و امنیت سایبری نقش محوری ایفا کند. با کاهش نیاز به دادههای آموزشی عظیم، DropAttack همچنین میتواند به دموکراتیزه شدن هوش مصنوعی کمک کرده و امکان توسعه مدلهای قدرتمند را برای سازمانها و محققانی با منابع دادهای محدودتر فراهم سازد.
در نهایت، DropAttack نه تنها یک گام مهم در جهت درک و حل چالشهای تعمیمپذیری و پایداری در شبکههای عصبی است، بلکه مسیری را برای تحقیقات آینده در زمینه هوش مصنوعی قابل اعتماد و مقاوم هموار میکند. با دسترسی عمومی به کد منبع، این تحقیق بستر مناسبی را برای توسعه و نوآوریهای بیشتر در جامعه علمی فراهم میآورد و نویدبخش آیندهای روشنتر برای کاربردهای هوش مصنوعی در دنیای واقعی است.


نقد و بررسیها
هنوز بررسیای ثبت نشده است.