Skip to main content
SUPERVISOR
مهران صفایانی (استاد مشاور) مریم ذکری (استاد راهنما)
 
STUDENT
Amin Taghizadeh esfahani
امین تقی زاده اصفهانی

FACULTY - DEPARTMENT

دانشکده مهندسی برق و کامپیوتر
DEGREE
Master of Science (MSc)
YEAR
1396

TITLE

Design adversarial attacks on Self-Driving cars
Nowadays lots of factors such as traffic, high mortality from accidents, as well as the importance of safety car occupants have led big companies to the desire to self-propelled cars increase sharply. On the other hand, people who are unable to drive also severely need such devices like kids and old age persons. Because of that, lots of companies are looking for solutions to give humans driving to cars with minimal intervention but this requires a lot of complex models that be able to perceive and respond to the conditions of the environment using sensors such as a camera and GPS. One of the methods that recently made to respond to this need, is the use of models based on deep learning. These models are far more accurate to previous models. Besides lots of advantage they have, some disadvantages such as consume high processing and low interpretability exist. But the most important problem is the vulnerability that is the main focus of this dissertation. In fact, despite the high power of these models, they can be deceived and returned incorrect output. Therefore, the issue of security of these networks is so important. In this study, attacking self-driving cars and deception of them are examined. Also, convolutional neural networks (subsets of deep learning ) suppose as the visual system and guidance of these devices.Because it is very costly to check the performance of the self-driving car in the real environment and alose design attacks is almost impossible in real-world, all attacks and research performed on a simulator platform. In this research, two methods have been proposed to deceive this group of cars, which in the first method giving a plate on the street and changing its colour, an error is created in the steering angle of the car and the car deviates from the original path. In this way, the desired colour for deception is obtained during an optimization process and then applied to the plate to deflect the device. For this purpose, two simulator and two different optimization methods are used. In the first step, the Udacity simulator is used, which has a simple path and a small network to drive the car and differential evolution used as the optimizer. In the next step, by learning the tips of the previous experiments we use Carla simulator, which has better graphics. The sophisticated DDPG model has also been used to steer the car and the Bayesian algorithm has been used for optimization that increases the effectiveness of the attack and also needs less sample to evaluate. In the second method, the object recognition system is deceived by seeing the plate installed on the back of the front car to decrease the recognition rate. In all attacks, it is assumed that there is no access to the structure and weight of the network and only its output exists. Finally, in all the reported attacks, the proposed method can deceive the network and disturb the machine decision making Key Words : Convolutional Neural Network, Self-driving car, Deep-Learning, Adversarial Attacks, Deceiving autonomous systems
امروزه عواملی همچون ترافیک،آمار بالای مرگ ومیر ناشی از تصادفات و همچنین اهمیت ایمنی سرنشینان خودرو باعث شده است میل به سمت ماشین های خودران به شدت افزایش پیدا کند. از طرفی افرادی که از توانایی رانندگی محرومند نیز به شدت به وجود چنین وسایلی نیازمندند. از این رو شرکت های بسیاری به دنبال راه حل هایی هستند تا امکان رانندگی با کمترین دخالت انسان را به ماشین ها بدهند. اما این کار نیازمند مدل های بسیار پیچیده ای است که بتواند شرایط محیط اطراف را با استفاده از حسگرهایی نظیر دوربین درک کند و پاسخ مناسب به آن بدهد. یکی از روش هایی که به تازگی برای پاسخ دهی به این نیاز مورد توجه قرار گرفته، استفاده از مدل های مبتنی بر یادگیری عمیق می باشد. این مدل ها دقتی به مراتب بیشتر نسبت به مدل های پیشین دارند. ولی در کنار این مزیت معایبی نظیر حجم پردازش بالا و توان تفسیرپذیری کم دارند. اما مهم ترین مشکل، آسیب پذیری این شبکه هاست که محور اصلی این پایان نامه بر روی این موضوع قرار دارد. در واقع در عین قدرت بالای این مدل ها، می توان آن ها را فریب داد تا خروجی نادرست برگردانند. لذا مبحث امنیت این شبکه ها از اهمیت بالایی برخوردار است. در این پژوهش، حمله به ماشین های خودران و فریب آن‌ها مورد بررسی قرار گرفته است. همچنین شبکه های عصبی کانولوشنی از زیر مجموعه های یادگیری عمیق( نیز به عنوان سیستم بینایی و هدایت این وسایل فرض شده است. از آنجا که بررسی عملکرد ماشین های خودران در محیط واقعی بسیار هزینه بر است تمامی حملات و پژوهش های صورت گرفته در بستر شبیه ساز انجام شده است. در این پژوهش دو روش برای فریب دادن این دسته از ماشین ها پیشنهاد شده که در روش اول با قرار دادن صفحه ای بر روی خیابان و تغییر رنگ آن، خطایی در زاویه فرمان خودرو ایجاد شده و خودرو از مسیر اصلی منحرف می شود. در این روش رنگ مورد نظر برای فریب در طی یک فرآیند بهینه سازی بدست می آید و سپس بر روی صفحه اعمال شده تا وسیله را منحرف کند. بدین منظور از دو شبیه ساز و دو مدل بهینه سازی متفاوت استفاده می شود. در قدم اول از شبیه ساز Udacity استفاده شده است که از یک مسیر ساده و شبکه ای کوچک برای هدایت ماشین برخوردار است و در مرحله بعد با آموختن نکات روش قبل از شبیه ساز Carla استفاده شده است که از نظر بصری و فیزیکی به مراتب به واقعیت نزدیکتر است. همچنین مدل پیچیده ی DDPG برای هدایت خودرو و الگوریتم بیزین برای بهینه سازی استفاده شده است تا اثربخشی حمله افزایش یابد. در روش دوم، بخش تشخیص دهنده اشیا مورد فریب قرار داده می شود تا با دیدن صفحه ای که روی ماشین مقابل نصب شده، قدرت تشخیص آن از دست برود. در تمامی حملات فرض بر این است که به ساختار و وزن شبکه دسترسی وجود ندارد و صرفا خروجی آن در اختیار است. در نهایت در تمامی حملات معرفی شده، روش ارائه شده قادر به فریب شبکه بوده و در تصمیم گیری ماشین اختلال ایجاد می کند. کلمات کلیدی : شبکه‌های عصبی کانولوشنی، ماشین خودران، یادگیری عمیق، حملات خصمانه، فریب سیستم‌های خودران

ارتقاء امنیت وب با وف بومی