مرداد ۱۴
مرتضی خاکپور
دبیر خبر | ۲۱ بهمن ۱۳۹۸

حفظ ایمنی تجهیزات خودمختار در محیط‌های پویا

سازمان دارپا در حال توسعه ابزارهایی است که ایمنی و قابلیت اطمینان تجهیزات خودمختار را در شرایط مختلف حفظ می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ پیچیدگی سامانه‌های خودمختاری فعلی که در حوزه و صنایع مختلف توسعه پیدا می‌کنند در سال‌های اخیر افزایش یافته است. بخشی عظیمی از این مسئله به  پیشرفت در محاسبات، مدل‌سازی، سنجش و دیگر فناوری‌های این حوزه مربوط می‌شود. با وجود سرعت بالای توسعه فناوری‌هایی که در این زمینه وجود دارند، تضمین‌های ایمنی این گونه سامانه‌های در شرایط خوبی قرار نداشته و به کندی شکل می‌گیرند. این چالش تا حد زیادی به الگوریتم‌های یادگیری ماشینی مربوط می‌شود که غیرقابل پیش‌بینی هستند و از چارچوب ریاضی لازم برای ارائه تضمین و توضیحات بهره نمی‌برند. عدم اطمینان، اعتماد به عملکرد صحیح هرگونه سامانه فیزیکی سایبری یادگیری  (LE-CPS) را محدود می‌کند. که در نهایت از به کارگیری گسترده آن‌ها در زمینه دفاعی جلوگیری می‌کند.

سازمان دارپا برای برطرف کردن چالش یاد شده پروژه «خودمختاری قابل‌اطمینان» (Assured Autonomy) را راه‌اندازی کرده است تا به صورت پیوسته از ایمنی و صحت عملکرد سامانه‌های فیزیکی سایبری یادگیری در زمان طراحی و پیاده‌سازی اطمینان حاصل کند. در این پروژه رویکردها و ابزارهای قابل اثبات توسعه پیدا می‌کنند. هدف از این کار به کارگیری آن‌ها در انواع مختلفی از الگوریتم‌های یادگیری ماشینی داده محور است تا علاوه برافزایش خودمختاری، از دستیابی به سطح قابل‌توجهی از ایمنی اطمینان حاصل کند. برای تحقق این هدف اولویت برنامه روی رفع چالش مسائل دفاعی وسایل نقلیه خودمختار به خصوص نمونه‌های روی سطح زمین، هوا و زیرآب قرار داده شده است.

فاز اول پروژه خودمختاری قابل‌اطمینان به تازگی به پایان رسیده است. برای ارزیابی فناوری‌های توسعه یافته در این فاز، گروه‌های تحقیقاتی دستاوردهای خود را با تعداد کمی از سامانه‌های خودمختار ادغام کرده و در معرض چالش‌های امنیتی مختلفی قرار دادند. پس از 18 ماه تحقیق در زمینه توسعه ابزارها، روش‌ها و قابلیت‌های یادگیری (LEC) اولین نشانه‌های پیشرفت را به نمایش گذاشت.

سندیپ نیما (Sandeep Neema)، مدیر برنامه خودمختاری قابل‌اطمینان گفت:

چندین نمونه موفقیت‌آمیز در این برنامه وجود دارد؛ اما 3 مورد آن‌ها پیشرفت‌های قابل‌توجهی را در حوزه‌های هوا، زمین و زیرآب به نمایش گذاشتند. محققانی که توسط گروه‌های ارزیابی بوئینگ، نورثروپ گرومن (Northrop Grumman) و مرکز سامانه‌های وسایل نقلیه زمینی فرماندهی توسعه قابلیت‌های رزمی نیروی زمینی (CCDC) همکاری می‌کردند موفق شدند به در زمان طراحی و همچنین بهره‌برداری در محیطی که پیوسته در حال تحول است، به اطمینان مورد نظر دست پیدا کنند.

پژوهشگران دانشگاه کایفرونیا برکلی، هوافضایی کالینز (Collins Aerospace) و «SGT Inc» با بوئینگ همکاری می‌کردند. این افراد موفق شدند نشان دهند فناوری‌های خودمختاری قابل‌اطمینان می‌توانند ایمنی سامانه‌ها در هواپیما را در زمان انجام عملیات روی زمین تقویت کنند. آن‌ها برای دستیابی به این هدف یک الگوریتم یادگیری ماشینی بر پایه مدلی به نام «VerifAI» را برای ایجاد یک ابزار طراحی و تجزیه‌وتحلیل جدید به وجود آورند.

مدل VerifAI به صورت پیوسته تلاش می‌کند مؤلفه‌های یادگیری ماشینی را درک کرده و چالش‌ها را برطرف کند و در صورت وجود محیطی غیرقابل اطمینان به مدل‌سازی و تحلیل رفتار سیستم بپردازد. پژوهشگران همچنین به منظور حصول اطمینان در زمان عملیات یک روش ایمنی مرکزی به نام «چشمان بسته» (Eyes-cloesed) را توسعه دادند. این روش امکان شناسایی ورودی‌های غیرعادی و ارائه یک پاسخ مناسب و بدون خطر را به سامانه‌های خودمختار می‌دهد.

محققان ابزارهای خود را با بسترهای ارزیابی بوئینگ شامل « Iron Bird X-Plane» ادغام کردند که پلتفرم شبیه‌سازی و آزمایش هواپیماهای کوچک است تا عملکرد دستاوردهای خود را به طور خاص در مرحله تاکسی هواپیماها مورد بررسی قرار دهند. چالش‌های این بخش شامل ردیابی خط میانی، کشف و جلوگیری از برخورد در باند فرودگاه است که برای هواپیماهای بدون سرنشین و نمونه‌های واقع روی عرشه‌ها بسیار اهمیت دارد. در طول آزمایش سامانه توسعه یافته موفق شد یک مانع را روی باند تشخیص داده و از برخورد با آن اجتناب کند.

همچنین روش‌های حصول اطمینان همچنین در زمان وجود نویز یا تصاویر مبهم دوربین، باعث شدند هواپیما تا زمان حصول اطمینان از ایمنی کامل و شفاف شدن شرایط متوقف شود. به علاوه ابزارها قادر به تشخیص ناهنجاری‌هایی بودند که جلوی عملکرد درست فرایند یادگیری را می‌گیرد تا امینی عملیات حفظ شود.

پژوهشگران آزمایشگاه‌های تحقیقاتی هیوز (HRL Laboratories)، نیز ابزارهای ارائه تضمین خود را با موفقیت در وسایل نقلیه نظامی خودمختار « Polaris MRZR » -که در اختیار فرماندهی توسعه قابلیت‌های رزمی نیروی زمینی است- آزمایش کردند. ابزار این گروه از محققان سامانه‌های تجزیه‌وتحلیل هوش مصنوعی از استدلال‌های ریاضی بهره می‌برد. این کار از طریق شناسایی و جلوگیری از خرابی‌های ایمنی به واسطه محاسبه شرایطی صورت می‌گیرد که می‌توانند پیامدهای مخرب را به وجود آورند. به طور کلی تعیین می‌کند که آیا شبکه عصبی برای استفاده ایمن است یا خیر. آن‌ها همچنین از مدل‌های ریاضی بهره می‌گیرند که انحراف مدل‌های ریاضیاتی خود را از هدف اصلی اندازه‌گیری می‌کند.

محققان هیوز برای ارزیابی کارایی ابزارهای خود، ابتدا از آن‌ها برای شناسایی سناریوهایی بهره می‌گیرند که هوش مصنوعی در آن به صورت غیرمنتظره عمل می‌کند و رفتاری غیرعادی از خود به نمایش می‌گذارد. سپس یافته‌های خود را در یک شبیه‌ساز قرار دادند تا مشخص شود که آیا این سناریوها به رفتارهای ناایمن منجر می‌شود یا خیر. پس از این مرحله پژوهشگران با نیروی زمینی همکاری کردند تا ابزارهای خود را روی Polaris MRZR قرار دهند. از چالش‌هایی که این ابزار در خودرو نظامی یاد شده باید با آن‌ها مواجه شود می‌توان به شناسایی موانع موجود در محیط در زمان حرکت اشاره کرد.

در نهایت پژوهشگران دانشگاه‌های وندربیلت و کالیفرنیا با همکاری نورثروپ گرومن، روی چگونه استفاده از الگوریتم‌های یادگیری ماشینی به منظور افزایش کارایی تجهیزات خودمختار زیر آب (AUV) کار می‌کردند. این گروه در حال طراحی ابزاری است که به زیردریایی‌های خودمختار اجازه می‌دهد در زمان واقعی شرایط عملیاتی را مورد ارزیابی قرار داده و با در نظر گرفتن ایمنی برای مأموریت برنامه‌ریزی کنند. از چالش‌های وسایل خودمختار زیردریایی که پژوهشگران روی آن تمرکز کرده‌اند می‌توان به بازرسی تجهیزات کف دریا و ناوبری در طول مسیر تأیید شده بدون این که نقشه‌ای از آن محیط وجود داشته باشد، اشاره کرد.

نیما ادامه داد:

هر یک از محیط‌های یاد شده چالش‌های خاص خود را دارند؛ اما چالش‌های محیط زیر آب کاملاً منحصربه‌فرد است. در این محیط همه‌چیز به کندی پیش می‌رود و مأموریت‌ها مدت‌زمان بیشتری طول می‌کشند. همچنین محدودیت‌های فیزیکی، حرکتی، ناوبری و ارتباطی بیشتری وجود دارد. بهبود خودمختاری، قابلیت‌های حصول اطمینان و ایمنی آن‌ها می‌تواند کمک بزرگی برای این حوزه به حساب آید.

وی افزود:

فاز دوم روی تکمیل، مقیاس‌پذیری، بهبود پوشش سناریوهای خطرناک، اضافه کردن تغییرات محیطی و بهینه‌سازی رفتارها در محیط‌های پویا متمرکز است.

منبع: سایبربان

نظرات