about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

مفهوم هوش مصنوعی برای آینده امنیت سایبری

هوش‌های مصنوعی نتیجه‌ی نبردهای سایبری آینده را در فضای مجازی مشخص کرده و تنظیم نادرست آن‌ها، مشکلات بزرگی را پدید می‌آورد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ با پیشرفت روزافزون هوش مصنوعی، تعدادی از متخصصان امنیت ملی آمریکا بیان می‌کنند که احتمالاً نتیجه نبردهای آینده، توسط رایانه‌هایی که در فضای سایبری با یکدیگر مبارزه می‌کنند، مشخص خواهد شد؛ اما پیش‌بینی دیگری نیز وجود دارد که توضیح می‌دهد، این فناوری، امنیتی مصنوعی و دروغینی را برای دفاع سایبری فراهم می‌کند؛ زیرا به سختی می‌توان عملکرد فناوری‌ها را پیش‌گویی کرد.

به تازگی 2 گزارش جدید منتشر شده‌اند که سعی دارند بینشی تازه را در رابطه با شیوه‌ی استفاده از هوش مصنوعی در امنیت سایبری آینده ارائه بدهند.

الکساندر نات (Alexander Knott)، دانشمند ارشد آزمایشگاه تحقیقاتی نیروی زمینی آمریکا (ARL) در گزارش‌های مذکور نوشته است:

ابزارهای مجهز به هوش مصنوعی به احتمال زیاد، به مبارزان سایبری اصلی در میدان نبرد آینده، تبدیل می‌شوند.

نات با اشاره به پیچیدگی روزافزون میدان مبارزه آینده ادامه داد:

وابستگی امروزی به مدافعان سایبری انسانی، در آینده قابل‌اعتماد نخواهد بود.

درگیری‌های آینده با توجه به گسترش ابزارهای متصل، روبات‌های جنگی و دیگر نوآوری‌های پیش رو، بسیار مشکل خواهند بود.

وی که به طور خاص روی امنیت سایبری میدان‌های نبرد آینده تحقیق می‌کند، اشاره کرد، هوش‌های مصنوعی فعلی مناسب نیستند؛ زیرا با توجه به ماهیت سیال گونه‌ی مبارزه، تعداد ابزارهای متصل و نقص‌های موجود در توان محاسباتی قابل‌حمل، فناوری یادگیری ماشینی باید پیشرفت عظیمی را برای حضور در میدان جنگ واقعی تجربه کند.

انتقاد وی از توانای هوش‌های مصنوعی کنونیِ حاضر در میدان جنگ، گلایه‌ی دیگر را در رابطه با پهنه‌ی گسترده‌ی صنعت امنیت سایبری بازتاب می‌دهد.

پیشرفته‌ترین فناوری‌های تشخیص تهدید فعلی، برای علامت‌گذاری رویدادهای بالقوه، از تعدادی هوش مصنوعی استفاده می‌کنند؛ اما کارشناسان معتقدند در صورت تنظیم نادرست سیستم، ممکن است یک مثبت کاذب (false positive) به سیستم وارد شده و «فرسودگی تهدید» (threat fatigue) ایجاد کند.

برای مثال با توجه به گزارش پونمون (Ponemon) سازمان‌های فناوری و امنیتی تقریباً در هر هفته هشداری در رابطه با 17 هزار بدافزار دریافت می‌کنند. با وجود این تنها 19 درصد پیام‌ها قابل‌اعتماد در نظر گرفته شده و از این تعداد 4 درصد آن‌ها موردبررسی قرار می‌گیرند.

در گزارش دوم اشاره شده است که استفاده از رویکردهای ترکیبی هوش مصنوعی احتمالاً باعث تقویت دفاع در امنیت سایبری خواهد شد.

بیشتر هوش‌های مصنوعی را می‌توان در 2 دسته‌ی سمبلیک (symbolic) و غیر سمبلیک (non-symbolic) طبقه‌بندی کرد که به شرح زیر هستند:

  • هوش مصنوعی سمبلیک: در این دسته از منطق خودمختاری از پیش برنامه‌ریزی شده مانند درخت‌های تصمیم‌گیری استفاده می‌شود.
  • هوش مصنوعی غیر سمبلیک: از برنامه‌هایی استفاده می‌کند که امکان یادگیری در رابطه با تهدیدها و شناسایی ناهنجاری‌ها را فراهم می‌آورند.

پژوهشگران هوش مصنوعی شرکت «Soar Technology»، در یک پروژه‌ی نیروی دریایی، به منظور تقویت امنیت سایبری، از ترکیب هر 2 مفهوم یادگیری ماشینی بالا استفاده می‌کنند.

اسکات لاثروپ (Scott Lathrop) و فرناندو میمی (Fernando Maymí)، پژوهشگران شرکت Soar و از نویسندگان گزارش یاد شده اظهار کردند:

به منظور پی بردن به ظرفیت کامل هوش مصنوعی، ما باید انواع مختلف آن را برای پوشش دادن محدودیت‌های یکدیگر، با هم ترکیب کنیم. هیچ‌یک از این رویکردها کامل و کافی نیستند؛ زیرا هرکدام با هدف برطرف سازی مجموعه‌ای از مشکلات خاص بهینه‌سازی شده‌اند.

پژوهشگران در حال حاضر روی محدودیت‌های فعلی هوش مصنوعی و برطرف سازی آن‌ها تحقیق می‌کنند.

برای مثال در زمینه روش‌های فریب خودمختار، محققان یادگیری عمیق برای مقابله با حملات اختلال سرویس توزیع شده (DDOS)، از رایانه‌های قدرتمند و شبکه‌های توزیع شده مستقل، بهره می‌گیرند.

پنتاگون در جولای سال 2018، قراردادی 5 ساله به ارزش 885 میلیون دلاری را با شرکت بوز آلن همیلتن (Booz Allen Hamilton)، پیمان‌کار دفاعی آمریکا، امضا کرد. البته جزئیات این قرارداد که در زمینه هوش مصنوعی است، هنوز مشخص نیست. از طرفی وزارت دفاع راهبرد هوش مصنوعی خود را در اوت همین سال منتشر ساخت. در این سند آمده است، وزارت خانه یاد شده در کوتاه مدت باید پایگاه داده‌ای از ظرفیت‌های بالقوه کشف شده یا آسیب‌پذیری‌های امنیت سایبری حسگرهای مختلف را توسعه بدهد که جزئی حیاتی از یادگیری ماشینی به حساب می‌آید.

تازه ترین ها
متهم
1404/02/14 - 11:20- جرم سایبری

متهم شدن پاکستان به حملات سایبری علیه هند

کارشناسان هندی ادعا کردند که پاکستان برخی حملات سایبری از جمله حمله به وب‌سایت‌های مرتبط با کودکان را علیه این کشور انجام داده است.

افزایش
1404/02/14 - 10:42- اروپا

افزایش 70 درصدی حملات سایبری روسیه علیه اوکراین

بنابر ادعای محققان غربی، حملات سایبری روسیه علیه اوکراین ۷۰ درصد افزایش یافته، اما تأثیر کمی داشته است.

ادعای
1404/02/14 - 10:10- جرم سایبری

ادعای حمله هکرهای روسی به وب‌سایت‌های هلند

کارشناسان ادعا کردند که یک گروه هکری طرفدار روسیه در حمله‌ای هماهنگ بیش از ۵۰ وب‌سایت هلندی را هدف قرار داد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.