about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

انتشار شده در تاریخ

مفهوم هوش مصنوعی برای آینده امنیت سایبری

هوش‌های مصنوعی نتیجه‌ی نبردهای سایبری آینده را در فضای مجازی مشخص کرده و تنظیم نادرست آن‌ها، مشکلات بزرگی را پدید می‌آورد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ با پیشرفت روزافزون هوش مصنوعی، تعدادی از متخصصان امنیت ملی آمریکا بیان می‌کنند که احتمالاً نتیجه نبردهای آینده، توسط رایانه‌هایی که در فضای سایبری با یکدیگر مبارزه می‌کنند، مشخص خواهد شد؛ اما پیش‌بینی دیگری نیز وجود دارد که توضیح می‌دهد، این فناوری، امنیتی مصنوعی و دروغینی را برای دفاع سایبری فراهم می‌کند؛ زیرا به سختی می‌توان عملکرد فناوری‌ها را پیش‌گویی کرد.

به تازگی 2 گزارش جدید منتشر شده‌اند که سعی دارند بینشی تازه را در رابطه با شیوه‌ی استفاده از هوش مصنوعی در امنیت سایبری آینده ارائه بدهند.

الکساندر نات (Alexander Knott)، دانشمند ارشد آزمایشگاه تحقیقاتی نیروی زمینی آمریکا (ARL) در گزارش‌های مذکور نوشته است:

ابزارهای مجهز به هوش مصنوعی به احتمال زیاد، به مبارزان سایبری اصلی در میدان نبرد آینده، تبدیل می‌شوند.

نات با اشاره به پیچیدگی روزافزون میدان مبارزه آینده ادامه داد:

وابستگی امروزی به مدافعان سایبری انسانی، در آینده قابل‌اعتماد نخواهد بود.

درگیری‌های آینده با توجه به گسترش ابزارهای متصل، روبات‌های جنگی و دیگر نوآوری‌های پیش رو، بسیار مشکل خواهند بود.

وی که به طور خاص روی امنیت سایبری میدان‌های نبرد آینده تحقیق می‌کند، اشاره کرد، هوش‌های مصنوعی فعلی مناسب نیستند؛ زیرا با توجه به ماهیت سیال گونه‌ی مبارزه، تعداد ابزارهای متصل و نقص‌های موجود در توان محاسباتی قابل‌حمل، فناوری یادگیری ماشینی باید پیشرفت عظیمی را برای حضور در میدان جنگ واقعی تجربه کند.

انتقاد وی از توانای هوش‌های مصنوعی کنونیِ حاضر در میدان جنگ، گلایه‌ی دیگر را در رابطه با پهنه‌ی گسترده‌ی صنعت امنیت سایبری بازتاب می‌دهد.

پیشرفته‌ترین فناوری‌های تشخیص تهدید فعلی، برای علامت‌گذاری رویدادهای بالقوه، از تعدادی هوش مصنوعی استفاده می‌کنند؛ اما کارشناسان معتقدند در صورت تنظیم نادرست سیستم، ممکن است یک مثبت کاذب (false positive) به سیستم وارد شده و «فرسودگی تهدید» (threat fatigue) ایجاد کند.

برای مثال با توجه به گزارش پونمون (Ponemon) سازمان‌های فناوری و امنیتی تقریباً در هر هفته هشداری در رابطه با 17 هزار بدافزار دریافت می‌کنند. با وجود این تنها 19 درصد پیام‌ها قابل‌اعتماد در نظر گرفته شده و از این تعداد 4 درصد آن‌ها موردبررسی قرار می‌گیرند.

در گزارش دوم اشاره شده است که استفاده از رویکردهای ترکیبی هوش مصنوعی احتمالاً باعث تقویت دفاع در امنیت سایبری خواهد شد.

بیشتر هوش‌های مصنوعی را می‌توان در 2 دسته‌ی سمبلیک (symbolic) و غیر سمبلیک (non-symbolic) طبقه‌بندی کرد که به شرح زیر هستند:

  • هوش مصنوعی سمبلیک: در این دسته از منطق خودمختاری از پیش برنامه‌ریزی شده مانند درخت‌های تصمیم‌گیری استفاده می‌شود.
  • هوش مصنوعی غیر سمبلیک: از برنامه‌هایی استفاده می‌کند که امکان یادگیری در رابطه با تهدیدها و شناسایی ناهنجاری‌ها را فراهم می‌آورند.

پژوهشگران هوش مصنوعی شرکت «Soar Technology»، در یک پروژه‌ی نیروی دریایی، به منظور تقویت امنیت سایبری، از ترکیب هر 2 مفهوم یادگیری ماشینی بالا استفاده می‌کنند.

اسکات لاثروپ (Scott Lathrop) و فرناندو میمی (Fernando Maymí)، پژوهشگران شرکت Soar و از نویسندگان گزارش یاد شده اظهار کردند:

به منظور پی بردن به ظرفیت کامل هوش مصنوعی، ما باید انواع مختلف آن را برای پوشش دادن محدودیت‌های یکدیگر، با هم ترکیب کنیم. هیچ‌یک از این رویکردها کامل و کافی نیستند؛ زیرا هرکدام با هدف برطرف سازی مجموعه‌ای از مشکلات خاص بهینه‌سازی شده‌اند.

پژوهشگران در حال حاضر روی محدودیت‌های فعلی هوش مصنوعی و برطرف سازی آن‌ها تحقیق می‌کنند.

برای مثال در زمینه روش‌های فریب خودمختار، محققان یادگیری عمیق برای مقابله با حملات اختلال سرویس توزیع شده (DDOS)، از رایانه‌های قدرتمند و شبکه‌های توزیع شده مستقل، بهره می‌گیرند.

پنتاگون در جولای سال 2018، قراردادی 5 ساله به ارزش 885 میلیون دلاری را با شرکت بوز آلن همیلتن (Booz Allen Hamilton)، پیمان‌کار دفاعی آمریکا، امضا کرد. البته جزئیات این قرارداد که در زمینه هوش مصنوعی است، هنوز مشخص نیست. از طرفی وزارت دفاع راهبرد هوش مصنوعی خود را در اوت همین سال منتشر ساخت. در این سند آمده است، وزارت خانه یاد شده در کوتاه مدت باید پایگاه داده‌ای از ظرفیت‌های بالقوه کشف شده یا آسیب‌پذیری‌های امنیت سایبری حسگرهای مختلف را توسعه بدهد که جزئی حیاتی از یادگیری ماشینی به حساب می‌آید.

تازه ترین ها
انصراف
1404/09/01 - 17:08- آمریکا

انصراف داوطلبانه کمیسیون بورس و اوراق بهادار از شکایت علیه سولار ویندز

کمیسیون بورس و اوراق بهادار آمریکا اعلام کرد که به‌طور داوطلبانه دادخواست سال ۲۰۲۳ علیه شرکت سولار ویندز و مدیر ارشد امنیت اطلاعات آن را که آنها را به فریب سرمایه‌گذاران از طریق پنهان‌کردن ضعف‌های جدی امنیت سایبری متهم می‌کرد، رد می‌کند.

رد
1404/09/01 - 17:00- جرم سایبری

رد اتهامات دو نوجوان بریتانیایی متهم به حمله سایبری

دو نوجوان بریتانیایی که به مشارکت در حمله سایبری سال گذشته به سازمان حمل‌ونقل لندن متهم شده‌اند، در دادگاه ساث‌ورک تمام اتهامات را رد کردند؛ پرونده‌ای که با جرایم شدید سایبری در بریتانیا و آمریکا گره خورده است.

لغو
1404/09/01 - 16:51- آمریکا

لغو مقررات سایبری دوره بایدن پس از افشای نفوذ چین به شرکت‌های مخابراتی

کمیسیون ارتباطات فدرال ارتباطات با رأی اکثریت جمهوری‌خواهان، مقررات سایبری وضع‌شده پس از حملات گسترده هکرهای چینی به شرکت‌های مخابراتی آمریکا را لغو کرد؛ اقدامی که با انتقاد شدید مقام‌های دموکرات و کارشناسان امنیتی روبه‌رو شده است.