خطرات جدید هوش مصنوعی برای فناوری عملیاتی
به گزارش کارگروه بینالملل سایبربان، آژانس امنیت ملی ایالات متحده (NSA) به همراه شرکای بینالمللی از جمله مرکز امنیت سایبری استرالیا (ACSC)، راهنماییهایی در مورد ادغام امن هوش مصنوعی در فناوری عملیاتی (OT) منتشر کرده است.
اصول ادغام امن هوش مصنوعی در فناوری عملیاتی (OT)هشدار میدهد که اگرچه هوش مصنوعی میتواند زیرساختهای حیاتی را بهینه کند، اما خطرات جدیدی را نیز برای محیطهای حساس به ایمنی ایجاد میکند. اگرچه این راهنما مدیران فناوری عملیاتی (OT)را هدف قرار داده است، اما مسائل مربوط به شبکههای فناوری اطلاعات را نیز برجسته میکند.
هوش مصنوعی به طور فزایندهای در بخشهایی مانند انرژی، تصفیه آب، مراقبتهای بهداشتی و تولید برای خودکارسازی فرایندها و افزایش کارایی به کار گرفته میشود.
بااینحال، راهنمایی آژانس امنیت ملی ایالات متحده چندین تهدید بالقوه، از جمله تزریق سریع دشمن، مسمومیت دادهها، رانش هوش مصنوعی و کاهش قابلیت توضیح را نشان میدهد که همگی میتوانند ایمنی و انطباق را به خطر بیندازند.
اتکای بیش از حد به هوش مصنوعی همچنین ممکن است منجر به ازدستدادن مهارت انسانی، اضافهبار شناختی و حواسپرتی شود، درحالیکه توهمات هوش مصنوعی نگرانیهایی را در مورد قابلیت اطمینان در محیطهای حساس به ایمنی ایجاد میکند.
کارشناسان تأکید میکنند که در حال حاضر نمیتوان به هوش مصنوعی برای تصمیمگیریهای ایمنی مستقل در شبکههای (OT) اعتماد کرد، جایی که حاشیه خطا بسیار کمتر از سیستمهای استاندارد فناوری اطلاعات است.
سم ماسچالک، مهندس فناوری عملیاتی، خاطرنشان کرد که معرفی هوش مصنوعی بدون پرداختن به مسائل زیرساختی از پیش موجود، مانند فیدهای داده ناکافی یا فهرست داراییهای ناقص، میتواند هم امنیت و هم کارایی عملیاتی را تضعیف کند.
این راهنما باهدف کمک به سازمانها در ارزیابی خطرات هوش مصنوعی، شفافسازی پاسخگویی و آمادهشدن برای سوءرفتارهای احتمالی، بر اهمیت برنامهریزی دقیق قبل از استقرار هوش مصنوعی در محیطهای عملیاتی حیاتی تأکید میکند.