امنیت در هوش مصنوعی: انواع حملات در یادگیری ماشین

سال انتشار: 1400
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 734

فایل این مقاله در 19 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

CEITCONF05_020

تاریخ نمایه سازی: 27 فروردین 1401

چکیده مقاله:

یادگیری ماشین به دلیل پیشرفت های فنی در سال های اخیر به طور فراگیر در طیف گسترده ای از برنامه های نظامی و امنیتی مورد استفاده قرار گرفته است.در واقع یادگیری ماشینی موفقیت قابل توجهی در برخورد با مشکلات پیچیده و توانایی های نزدیک به انسان یا حتی فراتر از انسان ها را نشان داده است. با این حال مدل های یادگیری ماشینی در برابر حملات مختلف اسیب پذیر هستند که این امر امنیت سیستم های کاربردی با مجموعه مورد نظر را به خطر می اندازد. در مقاله پیش رو با توجه به استفاده بیشتر از هوش مصنوعی در انواع برنامه های امنیتی و نظامی کشور، به طور سیستماتیک مسائل امنیتی یادگیری ماشین تجزیه و تحلیل شده است. این امر با تمرکز بر حملات موجود به سیستم های یادگیری ماشین از مرحله آموزش تا آزمایش حاصل شده است. بدین منظور در مقاله پیش رو ابتدا مدل یادگیری ماشینی به منظور مقابله با دشمنان ارائه و دلایلی که چرا یادگیری ماشین می تواند مورد حمله قرار گیرد،تحلیل می شود. سپس مسائل مربوط به امنیت یادگیری ماشبین به دسته های مختلف طبقه بندی می شوند. در واقع عواملی مانند مسمومیت مجموعه آموزشی درهای پشتی در مجموعه آموزشی، نمونه حملات متخاصم، مدل سرقت، بازیابی اطلاعات حساس آموزشی، مدل های تهدید و رویکردهای حمله تجزیه و تحلیل می شوند.

نویسندگان

میلاد حدادنژاد

دانش آموخته کارشناسی ارشد برق مخابرات دانشگاه آزاد اسلامی تهران جنوب تهران ایران

روزبه فخاری

دانشجوی دکتری تخصصی علوم اعصاب شناختی موسسه آموزش عالم علوم شناختی، تهران ایران