Skip to main content
SUPERVISOR
مهران صفایانی (استاد راهنما) عبدالرضا میرزایی دمابی (استاد مشاور)
 
STUDENT
Pouyan Shalbafan
پویان شالبافان

FACULTY - DEPARTMENT

دانشکده مهندسی برق و کامپیوتر
DEGREE
Master of Science (MSc)
YEAR
1395
In recent years, a concept known as the vulnerability of machine-learning-based models has been presented, which shows that almost all learning models, including parametric and non-parametric models, are vulnerable. The most well- known of these vulnerabilities, or in other words, attacks, is injection of adversarial examples into the learning model, which is based on artificial neural networks, deep artificial neural networks specifically, have the highest degree of vulnerability to adversarial examples. The adversarial examples are such that they add noise to the input data of the target network’s neural network, so that the input data from the user’s eye will not change significantly, but it will make network, D_FY W_6D6F" Adversarial Examples, Gaussian Process, Neural Networks, Deep Learning, Probabilistic Model
در سا‌ل‌های اخیر، مفهومی تحت عنوان آسیب‌پذیری مدل‌های مبتنی بر یادگیری ماشین مطرح شده است که نشان می‌دهد، تقریبا همه مدل‌های یادگیری، اعم از مدل‌های پارامتری و غیر پارامتری، آسیب‌پذیر هستند. شناخته‌شده‌ترینِ این آسیب‌ها، یا به بیان دیگر، حملات، تزریق مثال‌های مخرب، به مدل یادگیر می‌باشد که مدل‌‌های مبتنی بر شبکه‌های عصبی مصنوعی، به‌ویژه شبکه‌های عصبی مصنوعی عمیق، بیشترین میزان آسیب‌پذیری را در برابر مثال‌های مخرب دارند. مثال‌های مخرب، به این‌صورت هستند که به داده‌های ورودی شبکه عصبی نویز هدفمند اضافه می‌کنند، به طوری‌که داده ورودی از چشم کاربر تغییر محسوسی نخواهد کرد ولی شبکه را دچار خطا در دسته‌بندی می‌کند. این‌گونه نشان داده‌شده‌است که مدل‌های بر پایه شبکه‌های عصبی در برابر این مثال‌های مخرب، آسیب‌پذیرند. همانطور که پیش‌تر نیز بیان شد، مدل‌های یادگیری به دو دسته پارامتری و غیر پارامتری تقسیم می‌شوند. در مدل‌های پارامتری، به ازای مقادیر مختلف پارامترها، توابع مختلفی خواهیم داشت. با تعریف توزیع احتمال برای پارامترها در روش‌های بیزین، در واقع، به طور غیر مستقیم بر روی توابع مختلف، توزیع احتمال تعریف می‌کنیم. فرآیندهای گاوسی این امکان را فراهم می‌کنند که مستقیما بر روی توابع، توزیع احتمال تعریف کنیم. از طرفی هزینه محاسباتی در فرآیندهای گاوسی بالااست و به همین دلیل، برای کم کردن پیچیدگی‌های محاسباتی و همچنین پایین آوردن زمان یادگیری با وجود محدودیت‌های ابزاری، از روش‌های مقیاس‌پذیر نمودن فرآیند‌های گاوسی استفاده می‌شود. در پژوهش‌های اخیر اینگونه استنباط می‌شود که مدل‌های مبتنی بر فرآیند‌های گاوسی در برابر مثال‌های مخرب مقاوم‌تر می‌باشند، اما به دلیل حجم محاسبات بسیار بالا، در بسیاری از موارد به صورت عملی، قابل پیاده‌سازی نمی‌باشند. به همین جهت، در این پژوهش، اولا، مدلی مبتنی بر فرآیندهای گاوسی مقیاس‌پذیر با استفاده از ویژگی‌های تصادفی، از حیث مقاومت در برابر حملات مخرب، مورد تحلیل قرار گرفت. ثانیا از ایده تعیین ارتباط خودکار جهت بالاتر بردن دقت مدل پایه، بهره گرفته شد. ثالثا، با استفاده از عدم قطعیت موجود در مدل‌های احتمالاتی و همچنین مدل‌های مبتنی بر یادگیری گروهی، مدلی ترکیبی ارائه شد که توانایی تشخیص حملات را داشت. درنهایت مدلی با تابع هسته عمیق ارائه شد که علاوه بر دقت اولیه بالا، در برابر حملات مخرب اعمال شده نیز مقاومت بالاتری نسبت به سایر مدل‌های پایه داشت، به طوری که در حمله اعمال شده با ضریب اختلال ?/? تنها ? درصد از دقت اولیه کاسته شد. شبکه‌های عصبی عمیق، فرا?یندهای گاوسی، مثال‌های مخرب، فرا?یندهای گاوسی مقیاسپذیر

ارتقاء امنیت وب با وف بومی