about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

انتشار شده در تاریخ

حضور هوش مصنوعی در دنیای واقعی امنیت سایبری

به گزارش واحد امنیت سایبربان؛ فضای مجازی به سرعت در حال تحول و گسترش یافتن است و به همین دلیل تقویت امنیت سایبری به یکی از اصلی‌ترین موضوعات بسیاری از کشورها و شرکت‌های بزرگ تبدیل شده است. از طرفی بسیاری از فعالان این حوزه در گذشته اعلام کرده بودند تعداد متخصصان سایبری موردنیاز برای مقابله با تهدیدات سایبری کافی نبوده و آموزش نیروی جدید نیز بسیار زمان‌بر و هزینه‌بر است. به همین علت تعدادی از آن‌ها پیشنهاد استفاده از هوش مصنوعی را برای محافظت از سامانه‌ها مطرح کردند.

سازمان دارپا در سال 2016 مسابقه‌ای را تحت عنوان چالش سایبر گرند (Cyber Grand Challenge) برگزار کرد که می‌توان آن را اولین مسابقه‌ی رایانه‌ها با یکدیگر به حساب آورد. در این مسابقه هوش‌های مصنوعی ساخته شده توسط انسان‌ها بدون دخالت آن‌ها و به صورت کاملاً مستقل به رقابتی 12 ساعته با یکدیگر پرداخته و باید در برابر حملات سایبری مقابله، آسیب‌پذیری‌ها را شناسایی و وصله‌های آن را ایجاد می‌کردند تا سامانه‌ی خود را امن نگه‌دارند. گروه برنده‌ی این رقابت می‌توانست برای دور نهایی در اجلاس جهانی هکرها با نام دف‌کان (DefCon) حضور پیدا کرده و در صورت پیروزی 2 میلیون دلار جایزه دریافت کند.

گروه برنده‌ی رقابت بالا فورآل‌سکیور (ForAllSecure) و هوش مصنوعی آن میهم (Mayhem) نام دارد. میهم توسط دیوید بروملی (David Brumley)، استاد دانشگاه کارنگی ملون و دو دانشجوی وی توسعه داده شده است. بروملی ادعا می‌کند هوش مصنوعی ساخته شده توسط آن‌ها می‌تواند تمام کدها را هک کرده و بهترین روش برای دفاع خودکار در برابر حملات سایبری سطح اینترنت است. همچنین گزارشی منتشر شده است که نشان می‌دهد از این هوش مصنوعی به زودی در دنیای واقعی استفاده خواهد شد.

بر اساس گزارش مذکور فورآل‌سکیور شروع به آزمایش توانایی‌های هک میهم در دنیای واقعی کرده است. این گروه سعی دارند نرم‌افزار خود را با محیط واقعی آشنا کنند؛ زیرا می‌تواند به صورت مستقل آسیب‌پذیری موجود در نرم‌افزارها و سخت‌افزارهای تجاری مانند مسیریاب‌ها را کشف و یک بروزرسانی تولید کنند تا جلوی بروز مشکل گرفته شود. گروه یاد شده برای اینکه سرعت عملکرد هوش مصنوعی خود را بهبود بدهد در حال همکاری با چندین شرکت مختلف و یک تولیدکننده‌ی سخت‌افزاری است. تاکنون نام هیچ یک از این شرکت‌ها اعلام نشده است. با وجود این به نظر می‌رسد آن‌ها سرمایه‌گذاری‌های گسترده‌ای روی توسعه این نرم‌افزار امنیتی کرده‌اند.

برملی گفت: «تشخیص یک حمله یا آسیب‌پذیری در سامانه‌ها ممکن است چندین روز یا هفته به طول بینجامد و رفع آن نیز ممکن است چندین هفته زمان نیاز داشته باشد یا نتوان آن را برطرف کرد. دنیایی را تصور کنید که هکری با حمله به اولین رایانه شناسایی شده و بلافاصله آسیب‌پذیری موجود در آن بر طرف گردد؛ بنابراین فرد مهاجم دیگر توانایی ادامه‌ی کار ر نخواهد داشت.»

برملی در سال 2016 اسنادی را منتشر کرد که نشان می‌دهد، میهم توسط 2 هزار تصویر از سفت افزار (firmware) مسیریاب‌ها تغذیه شده است. بیش از 40 درصد از 89 محصول موردبررسی حداقل دارای یک آسیب‌پذیری بودند. به علاوه 14 درصد این نقض‌های امنیتی در گذشته کشف نشده و به راحتی توسط 69 نرم‌افزار مختلف تحت تأثیر قرار می‌گرفتند. همچنین اعلام شد گروه فورآل‌سکیور در حال همکاری با پنتاگون است تا بتواند از آن در دنیای واقعی استفاده کنند.

جوانی ویگنا (Giovanni Vigna)، استاد دانشگاه کالیفرنیا با وجود مهم خواندن تحقیقات صورت گرفته توسط دارپا معتقد است. تشخیص همه‌ی آسیب‌پذیری‌ها و رفع آن‌ها به صورت خودکار، غیر ممکن است و هنوز هم باید کار صورت گرفته توسط بات‌نت‌ها و هوش‌های مصنوعی دوباره توسط انسان‌ها بررسی بشود.

ویگنا با اشاره به بی‌اعتمادی شرکت‌های تولید سخت‌افزار نسبت به تأمین امنیت خودکار، گفت: «به عنوان مثال یک شرکت تولیدکننده‌ی مسیریاب هیچ‌گاه از یک وصله‌ی آسیب‌پذیری که تضمینی در عملکرد آن نمی‌بیند استفاده نخواهد کرد؛ زیرا فکر می‌کند این کار باعث از کار افتادن سخت‌افزار آن‌ها خواهد شد.»

برملی اشاره کرد، در بین دولت‌مردان آمریکا نیز هنوز افرادی هستند که معتقدند انسان‌ها نباید از چرخه امنیت سایبری حذف شوند؛ اما امیدوار است این روند به آرامی تغییر کرده و انسان‌ها نقش کمتری در این زمینه را بر عهده بگیرند.

تازه ترین ها
سوءاستفاده
1404/10/02 - 17:55- هوش مصنوعي

سوءاستفاده آنلاین از زنان توسط هوش مصنوعی

هوش مصنوعی به سوءاستفاده آنلاین از زنان در عرصه عمومی دامن می‌زند.

شبیه‌سازی
1404/10/02 - 17:31- هوش مصنوعي

شبیه‌سازی پلاسمای همجوشی توسط هوش مصنوعی

دانشمندان یک مدل هوش مصنوعی توسعه داده‌اند که قادر به شبیه‌سازی پلاسمای همجوشی در عرض چند ثانیه است.

لایحه
1404/10/02 - 16:53- هوش مصنوعي

لایحه جامع حقوق هوش مصنوعی در فلوریدا

فلوریدا در حال تصویب یک لایحه جامع حقوق هوش مصنوعی است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.