| عنوان مقاله به انگلیسی | Gemma Scope: Open Sparse Autoencoders Everywhere All At Once on Gemma 2 |
| عنوان مقاله به فارسی | ترجمه فارسی مقاله Gemma Scope: رمزگذارهای خودکار پراکنده را در همه جا باز کنید، همه به طور همزمان در Gemma 2 |
| نویسندگان | Tom Lieberum, Senthooran Rajamanoharan, Arthur Conmy, Lewis Smith, Nicolas Sonnerat, Vikrant Varma, János Kramár, Anca Dragan, Rohin Shah, Neel Nanda |
| فرمت مقاله انگلیسی | |
| زبان مقاله تحویلی | ترجمه فارسی |
| فرمت مقاله ترجمه شده | به صورت فایل ورد |
| نحوه تحویل ترجمه | دو تا سه روز پس از ثبت سفارش (به صورت فایل دانلودی) |
| تعداد صفحات | 26 |
| دسته بندی موضوعات | Machine Learning,Artificial Intelligence,Computation and Language,یادگیری ماشین , هوش مصنوعی , محاسبات و زبان , |
| توضیحات | Submitted 19 August, 2024; v1 submitted 9 August, 2024; originally announced August 2024. , Comments: 12 main text pages, and 14 pages of acknowledgements, references and appendices |
| توضیحات به فارسی | ارسال شده در 19 اوت 2024 ؛V1 ارسال شده در 9 اوت 2024 ؛در ابتدا اوت 2024 اعلام شد. ، نظرات: 12 صفحه اصلی متن و 14 صفحه تأیید ، منابع و پیوست ها |
توضیحات گزینههای خرید
دانلود مقاله اصل انگلیسی
با انتخاب این گزینه، میتوانید فایل PDF مقاله اصلی را به زبان انگلیسی دانلود کنید.
قیمت: 19,000 تومان
سفارش ترجمه فارسی مقاله
با انتخاب این گزینه، علاوه بر دریافت مقاله اصلی، ترجمه فارسی مقاله را نیز سفارش میدهید.
قیمت: 1,040,000 تومان
زمان تحویل: 2 تا 3 روز کاری
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |
چکیده
Sparse autoencoders (SAEs) are an unsupervised method for learning a sparse decomposition of a neural network’s latent representations into seemingly interpretable features. Despite recent excitement about their potential, research applications outside of industry are limited by the high cost of training a comprehensive suite of SAEs. In this work, we introduce Gemma Scope, an open suite of JumpReLU SAEs trained on all layers and sub-layers of Gemma 2 2B and 9B and select layers of Gemma 2 27B base models. We primarily train SAEs on the Gemma 2 pre-trained models, but additionally release SAEs trained on instruction-tuned Gemma 2 9B for comparison. We evaluate the quality of each SAE on standard metrics and release these results. We hope that by releasing these SAE weights, we can help make more ambitious safety and interpretability research easier for the community. Weights and a tutorial can be found at https://huggingface.co/google/gemma-scope and an interactive demo can be found at https://www.neuronpedia.org/gemma-scope
چکیده به فارسی (ترجمه ماشینی)
Autoencoders پراکنده (SAEs) روشی بدون نظارت برای یادگیری تجزیه پراکنده بازنمایی های نهفته یک شبکه عصبی به ویژگی های به ظاهر قابل تفسیر است.علیرغم هیجان اخیر در مورد پتانسیل آنها ، برنامه های تحقیقاتی در خارج از صنعت با هزینه بالای آموزش یک مجموعه جامع از SAE محدود می شود.در این کار ، ما Gemma Scope را معرفی می کنیم ، مجموعه ای باز از Jumprelu Saes که در تمام لایه ها و زیر لایه های Gemma 2 2B و 9B آموزش دیده و لایه های مدل های پایه Gemma 2 27B را انتخاب می کنیم.ما در درجه اول SAE ها را بر روی مدلهای از پیش آموزش Gemma 2 آموزش می دهیم ، اما علاوه بر این SAE ها را برای مقایسه با Gemma 2 9B تنظیم شده آموزش داده شده آزاد می کنیم.ما کیفیت هر SAE را در معیارهای استاندارد ارزیابی می کنیم و این نتایج را منتشر می کنیم.ما امیدواریم که با انتشار این وزن های SAE ، ما می توانیم کمک کنیم تا تحقیقات ایمنی و تفسیر جاه طلبانه تر برای جامعه آسانتر شود.وزنه ها و یک آموزش را می توان در https://huggingface.co/google/gemma-scope یافت و یک نسخه ی نمایشی تعاملی را می توان در https://www.neuronpedia.org/gemma-scope یافت.
| فرمت ارائه ترجمه مقاله | تحویل به صورت فایل ورد |
| زمان تحویل ترجمه مقاله | بین 2 تا 3 روز پس از ثبت سفارش |
| کیفیت ترجمه | بسیار بالا. مقاله فقط توسط مترجمین با مدرک دانشگاهی مترجمی ترجمه میشود. |
| جداول و فرمول ها | کلیه جداول و فرمول ها نیز در فایل تحویلی ورد درج میشوند. |


نقد و بررسیها
هنوز بررسیای ثبت نشده است.