مقابله دارپا، با هوش مصنوعی خصمانه
به گزارش کارگروه فناوری اطلاعات سایبربان؛ الگوریتمهای یادگیری ماشینی امروزی، تا اندازهای پیشرفت کردهاند که میتوان از آنها در زمینههای مختلفی مانند تولید کارآمد، پزشکی، تحلیل حجم عظیمی از دادهها و حملونقل خودمختار بهره گرفت. به همین دلیل، اگر در این سامانهها، اشتباهی رخ بدهد، یا دستکاری شوند، احتمالاً آسیبهای جانی و مالی بسیاری ایجاد خواهند شد. بنابراین یادگیری ماشینی، از دیدگاه بسیاری از افراد، یک شمشیر 2 لبه به حساب میآید.
هاوا سیگلمن (Hava Siegelmann)، مدیر برنامه دفتر نوآوری اطلاعات دارپا گفت:
محققان طي یک دهه گذشته، روی این موضوع تمرکز کردند که یادگیری ماشینی میتواند وظایف جهان واقعی را انجام داده، آنها را به شکل مؤثرتری تکمیل کند. ما هماکنون به این ویژگی دست یافته و به سرعت آن را در زمینههای مختلف به کار گرفتهایم؛ اما در این پیشرفت، توجه بسیار کمی به آسیبپذیریهای بسترهای یادگیری ماشینی، به خصوص در زمینه تغییر، تخریب، یا فریب آن داشتیم.
برای درک بهتر مسئله، پژوهشگران از مثال خودروهای بی راننده استفاده میکنند. در این حالت میتوان یک وسیله نقلیه خودمختار را بهگونهای فریب داد که تابلو ایست را با چیزی دیگري اشتباه بگیرد. درحالی که یک انسان، در تفسیر تابلوی تغییر شکل یافته مشکلی ندارد؛ یک الگوریتم یادگیری ماشینی، آن را مثلاً به عنوان محدودیت سرعت كمتر از 45 كيلومتر در ساعت مشاهده خواهد کرد. در جهان واقعی، وسیلهی نقلیه، پس از دیدن علامت یادشده، به جای توقف، سرعتش را زیاد میکند كه این حادثه میتواند خطرات بسیاری را به دنبال داشته باشد.
سازمان دارپا، به منظور مقابله با مشکل بالا، پروژهای جدید را به نام گارد (GARD1) راهاندازی کرد. هدف این طرح، توسعه شیوههای دفاعی تازهای است که از مدلهای یادگیری ماشینی در برابر حملات فریب خصمانه دفاع میکنند. شیوههای محافظت فعلی، بر مبنای حملات از پیش تعریف شده عمل کرده، همچنان نسبت به انواع دیگر آسیبپذیر هستند. پژوهشگران در این برنامه، قصد دارند رویکردهای دفاعی یادگیری ماشین متفاوتی را پديد آوردند که طیف وسیعتری از حملات احتمالی را پوشش میدهند.
سیگلمن ادامه داد:
حفاظت از یادگیری ماشینی، یک نیاز حیاتی است؛ زیرا این فناوری، به صورت روزافزون در بیشتر زیرساختهای ما به کار گرفته میشود. هدف پروژهی گارد، حفاظت از این دستاوردها در برابر حملات احتمالی آینده است. ما باید اطمینان حاصل کنیم که این الگوریتمها، ایمن باقی میمانند.
پروژهی گارد روی 3 هدف اصلی متمرکز است:
- توسعه پایههای نظری، برای یادگیری ماشینی قابل دفاع و ایجاد فرهنگنامهای از مکانیزمهای جدید دفاعی بر پایهی آنها.
- ایجاد و آزمایش سامانههای قابل دفاع در طیف گستردهای از تنظیمات.
- پديد آوردن یک بستر آزمایش (testbed) جدید به منظور توصیف یادگیری ماشینی قابل دفاع مرتبط با سناریوهای تهدیدآميز مختلف.
پروژه گارد، ابتدا روی پردازشهای تصویری تمرکز خواهد داشت؛ اما در مراحل بعد، به محتوای ویدئویی، صوتی و سامانههای پیچیدهتر گسترش خواهد یافت.
- Guaranteeing AI Robustness against Deception