آیا هوش مصنوعی به دفاع سایبری کمک میکند یا به آن آسیب میرساند؟ (بخش دوم)
در ادامه این موضوع، مجله فورچون (Fortune) اظهار داشت که کارشناسان امنیت سایبری نسبت به اشکالات هوش مصنوعی در مبارزه با تهدیدات هشدار می دهند که بخش بزرگی از مشکل این است که مهاجمان از این فناوری و اتوماسیون در مقیاس با پیچیدگی کمتر استفاده میکنند و اما همچنان بسیار مؤثر است که به آنها اجازه میدهد تا از نقایص سیستمهای امنیتی سوءاستفاده کنند.
کارشناسان اظهار داشتند :
«افراد بد بسیاری از ما را از نظر اتوماسیون در هم میکوبند. آنها در استفاده از سیستمهای هوشمند و هوش مصنوعی برای شناسایی بسیار بسیار بهتر شدهاند که به آنها این امکان را میدهد اهداف را به طور بسیار مؤثری محدود کنند. آنها معمولاً از هوش مصنوعی برای تجزیه نرمافزار استفاده میکنند تا بفهمند آسیبپذیریها به طور فوقالعاده در کدام مکان مؤثرتر هستند.»
هنگامی که از رز (Roese) خواسته شد در پایان رویداد مشاورهای ارائه دهد، وی یک ایده ساده ارائه کرد :
«هوش مصنوعی را مشاهده نکنید. در زمینه امنیتی به عنوان یک ویژگی اضافه شده مشاهده نکنید. شما باید آن را به عنوان یک مؤلفه اصلی امنیت همه چیز در نظر بگیرید، درست مانند همه چیزهایی که در فرآیند کسب و کار یا همه موارد کاربرد دارند. آن را در یک تیم تخصصی که به تنهایی با این فناوری سروکار دارد، تقسیم نکنید. توانایی را در کل سازمان توسعه دهید و روی آن سرمایهگذاری کنید، زیرا این یک ابزار است و اگر از آن در همه جا استفاده نکنید، اساساً چیزی را روی میز میگذارید.»
شورای روابط خارجی اخیراً در مورد تولید کد هوش مصنوعی و امنیت سایبری اظهار داشته که هوش مصنوعی شیوه نوشتن برنامههای رایانهای را متحول خواهد کرد و دولت و صنایع ایالات متحده باید روی هوش مصنوعی به عنوان یک ابزار امنیت سایبری سرمایهگذاری کنند.
من همچنین مقاله لیزا اوریلی (Lisa O’Reilly) را درخصوص چگونگی نهفتگی آینده امنیت مرورگر در هوش مصنوعی و یادگیری ماشینی دوست دارم؛ در این مقاله آمده است :
«با ایمنتر شدن نرمافزارها و مهارت در دفاع در برابر بدافزارها، محیط تهدیدات سایبری به سمت فیشینگ تغییر کرده است. اما برخلاف گذشته که این حملات عمدتاً از طریق ایمیل انجام میشد، هکرها اکنون روی کانالهای متعددی مانند دستگاههای تلفن همراه، برنامهها و صفحات وب متمرکز شدهاند. از آنجایی که فیشینگ یک مشکل انسانی است که از احساسات سوءاستفاده میکند و با روانشناسی ترس و عدم اطمینان سروکار دارد، روشهای محاسباتی مرسوم برای دفاع در برابر آنها کافی نیست. یکی از بزرگترین مشکلات، مرورگر است.»
همانطور که مدام به مبحث رباتها، هوش مصنوعی، مشاغل، آینده و امنیت سایبری بازمیگردم، به این فکر میکنم که کدام راهحلهای فعلی به مشکل تبدیل میشوند. این موضوع بسیار دشواری برای پذیرش است و من معتقدم که باید به بررسی مجدد آن ادامه دهیم.
مرکز تحقیقات پیو (Pew) این مقاله مفصل را اوایل سال جاری نوشت که نگرانیهای آنها را در هوش مصنوعی شرح داد که تعداد زیادی از پاسخدهندگان استدلال کردند که رقابت ژئوپلیتیکی و اقتصادی محرکهای اصلی توسعهدهندگان هوش مصنوعی هستند، در حالیکه نگرانیهای اخلاقی در جایگاه دوم قرار میگیرد. بخشی از این کارشناسان گفتند که سازندگان ابزارهای هوش مصنوعی در گروههایی کار میکنند که انگیزه کمی برای طراحی سیستمهایی دارند که به نگرانیهای اخلاقی رسیدگی میکنند. برخی از پاسخ دهندگان خاطرنشان کردند که حتی اگر الزامات اخلاقی قابل اجرا وجود داشته باشد، نمیتوان آنها را اعمال کرد یا بر آنها نظارت داشت، زیرا اکثر طراحیهای هوش مصنوعی اختصاصی، پنهان و پیچیده هستند. برخی از این کارشناسان معتقدند که سیستمهای هوش مصنوعی و پایگاههای داده موجود اغلب برای ساخت برنامههای کاربردی جدید هوش مصنوعی استفاده میشوند. این بدان معنا است که سوگیریها و جنبههای اخلاقی نگران کننده سیستمهای فعلی در سیستمهای جدید طراحی میشوند. تشخیص و رفع مشکلات پیشین ممکن است دشوار باشد، اما غیرممکن نیست.»