نفوذ کمهزینه هوش مصنوعی؛ انسان همچنان کلید موفقیت
به گزارش کارگروه فناوری اطلاعات سایبربان؛ یک مطالعه جدید توسط شرکتهای امنیت سایبری اسرائیلی ویز (Wiz) و «Irregular»، دیدگاه روشنی از قابلیتها و محدودیتهای فعلی عوامل هوش مصنوعی در حوزه سایبری ارائه داد. وقتی یک اپراتور انسانی یک هدف مشخص و تعریفشده به عوامل هوش مصنوعی میدهد، آنها میتوانند حملات سایبری را به سرعت و با حداقل هزینه انجام دهند. اما وقتی لازم باشد به طور مستقل عمل، اهداف را انتخاب و اقدامات را اولویتبندی کنند و استراتژی را تطبیق دهند، اثربخشی آنها به شدت کاهش مییابد.
محققان 10 سناریو را برای شبیهسازی آسیبپذیریهای واقعی براساس حوادث سایبری شناختهشده سالهای اخیر، از جمله افشای پایگاه داده، پیکربندی نادرست ابر و شکستهای تأیید هویت، ساختند. برای اطمینان از اینکه اینها چالشهای واقعی هستند و نه نمایشهای نظری، ابتدا هر سناریو توسط یک محقق انسانی باتجربه حل شد. سپس به عوامل هوش مصنوعی وظیفه داده شد تا یک آسیبپذیری را در یک محیط مشخص شناسایی و از آن بهرهبرداری کنند تا زمانی که یک پرچم به دست آید، یک معیار بدون ابهام از موفقیت که برای به حداقل رساندن نویز و خطاهای تفسیر طراحی شده است. نتایج قابل توجه بود: وقتی یک هدف خاص به آنها داده شد، عوامل هوش مصنوعی با موفقیت 9 مورد از 10 چالش، از جمله حملات پیچیده چند مرحلهای، عبور کردند، که گاهی اوقات فقط با هزینه چند دلار در هر تلاش انجام میشد.
کارشناسان معتقدند که از منظر اقتصادی، پیامدهای این موضوع نگرانکننده است. به محض شناسایی یک دارایی آسیبپذیر، تلاشها برای بهرهبرداری از آن سریع و ارزان میشود، حتی اگر هر تلاشی موفقیتآمیز نباشد؛ هزینه نهایی پایین به مهاجمان اجازه میدهد تا سناریوی یکسانی را بارها و بارها تکرار کنند تا به یک نفوذ برسند. در چندین مورد، عملیاتی با ارزش اقتصادی تخمینی دهها هزار دلار تنها با چند دلار و گاهی اوقات با کمتر از یک دلار اجرا شدند.
وقتی از عوامل خواسته شد تا در یک محیط وسیع و بدون هدف از پیش تعریفشده فعالیت کنند، تصویر به طرز چشمگیری تغییر کرد. میزان موفقیت به شدت کاهش یافت، همه چالشها حل نشدند و هزینه هر نفوذ موفقیتآمیز دو تا دو و نیم برابر افزایش یافت. محققان مشاهده کردند که عوامل اغلب تلاشهای خود را در مسیرهای حمله متعدد پراکنده میکنند بدون اینکه هیچ یک را به طور عمیق دنبال کنند، یا برعکس، حتی پس از اینکه ناکارآمدی آن ثابت شد، در دنبال کردن یک رویکرد واحد گیر میکنند. برخلاف محققان انسانی که تمایل دارند بنبستها را تشخیص دهند و جهت را نسبتاً سریع تغییر دهند، عوامل هوش مصنوعی بارها و بارها انواع مختلفی از همان روش ناموفق را امتحان کردند.
نتیجهگیری مطالعه این بود که عوامل هوش مصنوعی در حال حاضر بسیار توانمندتر از آن چیزی هستند که بسیاری تصور میکنند. آنها میتوانند به سیستمها به طور مؤثر، سریع و ارزان حمله کنند، مشروط بر اینکه راهنمایی واضح انسانی دریافت کنند. با این حال، آنها مهاجمان مستقل به معنای کامل انسانی نیستند. تهدید اصلی امروز هوش مصنوعی به تنهایی عمل نمیکند، بلکه ترکیبی از یک اپراتور انسانی است که اهداف و استراتژی را با هوش مصنوعی تعریف میکند که وظایف را با سرعت ماشین اجرا میکند. برای سازمانها، این بدان معنی است که فرضیات دفاعی باید به طور مداوم بهروزرسانی شوند: رقابت بین مهاجمان و مدافعان وارد مرحله جدیدی شده است.
Irregular یک آزمایشگاه تحقیقاتی امنیتی است که با توسعهدهندگان پیشرو هوش مصنوعی مانند «OpenAI»، «Anthropic» و گوگل و همچنین سازمانهای دولتی همکاری میکند تا خطرات عمیق در مدلهای پیشرفته را قبل از انتشار عمومی کشف کند. سپتامبر گذشته، این شرکت از تکمیل سری اول سرمایهگذاری به مبلغ 80 میلیون دلار از «Sequoia Capital» و «Redpoint Ventures» خبر داد.