Skip to main content
SUPERVISOR
Mohammad hossein Manshaei,Mohammadreza Heidarpour
محمدحسین منشئی (استاد راهنما) محمدرضا حیدرپور (استاد راهنما)
 
STUDENT
Sina Dehghanian NasrAbadi
سینا دهقانیان نصرآبادی

FACULTY - DEPARTMENT

دانشکده مهندسی برق و کامپیوتر
DEGREE
Master of Science (MSc)
YEAR
1395
Nowadays, the Internet is overgrowing, and accessing the Internet is more comfortable than before. Ease of access and more coverage of the Internet result in more devices to be online. Besides the massive number of connected devices, new applications have emerged in areas like smart city, smart traortation, healthcare, and emergency response. As a result, the velocity of generating data is also increasing, as same as the volume of generated data. This enormous amount of data require a comprehensive infrastructure for processing and storing them. Also, in the Big Data era, many useful decisions can be made using this tremendous data. On the other hand, terminal devices cannot provide enough resources for processing and make real-time decisions. To this end, Cloud Computing is introduced as a solution for providing the processing and storage capabilities to this demand. Although cloud servers provide high-performance resources, communication costs are one the drawbacks for sending tasks to the cloud. Alternately, rather than moving data to the cloud, it may be useful to locate the resources closer to terminal devices. Fog Computing, as a novel computing paradigm, is introduced that aims this issue. In Fog Computing, there is an extra layer located between the cloud and terminal layer. The fog nodes provide sufficient resources for the terminal devices. Although fog nodes have better performance than the IoT devices in the terminal layer, the capability of fog nodes is still limited due to deployment costs. So they cannot serve all of the received tasks, and some of them should be offloaded. Offloading tasks to the cloud results in high delay and affects the Quality-of-Service. On the other hand, some applications are delay sensitive and hence cannot tolerate the delay. It will be necessary that there must be an optimized mechanism for offloading tasks. In this thesis, we iected possible methods used for offloading in fog computing and proposed a novel approach for this task based on reinforcement learning. The proposed method uses Q-Learning for making the decision on which task should be offloaded and aims to minimize the delay at the same time. A fog node when wants to offload a task benefits from Q-table and make its decision based on Q-value. Finally, the experiment results illustrate improvements in the delay, which is the aimed parameter to be minimized. کلمات کلیدی انگلیسی: Internet of Things, Cloud Computing, Fog Computing, Workload Offloading, Machine Learning, Reinforcement Learning
امروزه گسترش پوشش اینترنت و سهولت دسترسی به آن سبب شده است تا تعداد دستگاه‌های متصل به اینترنت روز به روز افزایش یابد. این در حالی است که ظهور فناوری‌هایی مانند اینترنت اشیا باعث شده که علاوه بر دستگاه‌های ارتباطی، کاربردهای جدیدی مثل خانه‌های هوشمند، شهر هوشمند، حمل و نقل هوشمند و غیره ایجاد شود که در هر کدام از این کاربردها تعداد زیادی از حسگرها و اشیا جدید نیازمند دسترسی به اینترنت و تبادل داده هستند. ظهور چنین کاربردهایی باعث شده است تا علاوه بر افزایش حجم داده‌های تولید شده، سرعت تولید داده‌ها نیز به طور چشمگیری افزایش یابد. از این رو وجود بستر ارتباطی و ذخیره‌سازی مطمئن برای تبادل این داده‌ها امری ضروری است. از سوی دیگر در عصری که به عصر کلان داده مشهور است، می‌توان تصمیم‌های بسیار کارسازی را با استفاده از داده‌های تولید شده توسط دستگاه‌های مختلف اتخاذ کرد. اما دستگاه‌های موجود در اینترنت اشیا غالبا از لحاظ پردازشی ضعیف بوده و قابلیت انجام چنین پردازش‌هایی را نخواهند داشت. از این رو رایانش ابری به عنوان راه حلی برای این مسئله پیشنهاد شد. سرویس‌دهنده‌های ابری از نظر قدرت پردازشی و ذخیره‌سازی در سطح بسیار مطلوبی قرار داشته و می‌توان برای انجام پردازش‌های سنگین از آن‌ها بهره برد. اما با وجود این، به دلیل فاصله‌ی زیادی که بین دستگاه‌های اینترنت اشیا و سرویس‌دهنده‌های ابری وجود دارد، تبادل داده‌ها با این مراکز منجر به ایجاد تاخیر نسبتا زیادی می‌شود. این موضوع بخصوص زمانی که درخواست‌های ارسالی حساس به تاخیر باشند اهمیت ویژه‌ای پیدا خواهد کرد و تاخیر ایجاد شده تاثیر مستقیمی روی کیفیت سرویس خواهد داشت. به همین دلیل الگوی پردازشی رایانش مبتنی بر مه به عنوان مکمل رایانش ابری معرفی شد. در این الگو، همانطور که از نامش پیداست، یک لایه بین لایه‌ی انتهایی و لایه‌ی ابر قرار می‌گیرد تا منابع پردازشی به دستگاه‌های انتهایی نزدیک شود. گره‌های موجود در مه با وجودیکه در مقایسه با دستگاه‌های انتهایی از توان پردازشی بالاتری برخوردار هستند،‌ اما باز هم محدودیت‌هایی دارند. به همین دلیل نمی‌توانند پاسخگوی همه‌ی درخواست‌ها باشند و ناگزیر برخی از درخواست‌ها باید به ابر ارسال شوند. بنابراین اضافه کردن یک لایه‌ی جدید به خودی خود نه تنها باعث کاهش تاخیر نمی‌شود بلکه ممکن است منجر به افزایش آن نیز شود. در نتیجه وجود یک ساز و کار بهینه لازم است تا با بهره‌گیری از مزیت‌های رایانش مبتنی بر مه بتواند کیفیت سرویس مطلوبی را نیز ارائه کند. در نتیجه در پژوهش حاضر به دنبال ارائه‌ی یک راهکار نوین و مبتنی بر یادگیری تقویتی هستیم که بتواند با توجه به شرایط سیستم بهترین انتخاب را برای تخلیه بار انجام دهد و از این رو کیفیت مطلوبی را عرضه کند. به همین منظور با بهره‌گیری از معماری و ساختاری که در کارهای گذشته برای رایانش مبتنی بر مه ارائه شده است، مدلی مبتنی بر یادگیری-Q پیشنهاد شده که در هیچ کدام از کارهای قبلی مشاهده نشده است. همچنین در مقایسه با سایر روش‌های یادگیری، با استفاده از این نوع یادگیری هر گره بدون نیاز به آموزش و تنها از طریق تعامل با محیط و پاداش‌های دریافتی می‌تواند تصمیم‌گیری خود را انجام داده و بهترین مقصد را برای تخلیه بار پیدا کند. در نهایت نتایج به دست آمده از شبیه‌سازی روش پیشنهادی، کاهش حدود ?? میلی ثانیه‌ای در تاخیر را نشان می‌دهد. همچنین افزایش یک واحدی در تعداد دفعات مجاز برای تخلیه بار برای یک گره مه از دیگر نتایج مطلوب روش مد نظر این پژوهش است. کلمات کلیدی فارسی: اینترنت اشیا، رایانش ابری، رایانش مبتنی بر مه، تخلیه~بار محاسباتی، یادگیری ماشین، یادگیری تقویتی

ارتقاء امنیت وب با وف بومی