about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

سازمان دارپا قصد دارد با توسعه‌ی ابزاری جدید قابلیت اطمینان، یادگیری، ایمنی و انعطاف‌پذیری خودروهای بی راننده را افزایش بدهد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ سازمان دارپا بر پایه‌ی پیشرفت‌های صورت گرفته در زمینه‌ی سامانه‌های خودکار سایبری، به تازگی تحقیقات جدیدی را با نام «خودمختاری ایمن» (Assured Autonomy) آغاز کرده است. هدف از پروژه‌ی خودمختاری ایمن توسعه‌ی سامانه‌های محاسباتی دارای قابلیت یادگیری و تحول، به گونه‌ای است که به شکل بهتری تغییرات محیطی را مدیریت کرده و قابلیت پیش‌بینی سامان‌های خودمختاری مانند وسایل نقلیه خودران را بهبود بخشند.
ساندیپ نیما (Sandeep Neema)، مدیر برنامه‌ی دارپا گفت: «در دهه‌ی گذشته پیشرفت‌های بسیاری در زمینه‌ی سامانه‌های خودمختار صورت گرفته است و می‌توان این موضوع را با اشاره به وسایل نقلیه بی راننده اثبات کرد. این دستاورد باعث ایجاد نوآوری‌های متنوعی در چندین زمینه‌ی مختلف مانند حسگرها، محاسبات، کنترل تئوری، طراحی متد، مدل‌سازی و شبیه‌سازی شد. با وجود این پذیرش و گسترش دستاورد یاد شده در وزارت دفاع با چالش‌ها و بحث‌های بسیاری همراه است.»
نیما ادامه داد: «رویکردهایی که با در نظر گرفتن استانداردهای ایمنی از طریق طراحی فرآیند توسعه می‌یابند تضمین شده هستند. اگرچه این استانداردها در درجه‌ی اول برای سیستم‌های «انسان در حلقه[fn]انسان در حلقه (human-in-the-loop) به مدلی گفته می‌شود که نیاز به تعامل با انسان دارد. این مفهوم با مدل‌سازی و شبیه‌سازی «زنده، مجازی و سازنده» (live, virtual, and constructive) در ارتباط بوده و همواره انسان به عنوان بخشی از شبیه‌سازی در آن حضور دارد.[/fn]» (HITL) توسعه داده شده و در سامانه‌هایی که دارای قابلیت یادگیری با سطح پیشرفته‌ای از خودمختاری هستند گسترش نمی‌یابند.»

وی افزود: «رویکردهای ایمنی امروزی بر پایه‌ی این فرض وجود دارند که سیستم‌ها بعد از استقرار، دیگر یاد نگرفته و تکامل نمی‌یابند.»
خودروهای بی راننده برای جایگزین شدن باید از سطحی ایمنی معادل با سامانه‌های انسان در حلقه برخوردار باشند. رویکرد یاد شده آمار حوادث رخ‌داده توسط انسان‌ها و سامانه‌های خودمختار را با یکدیگر مقایسه و تجزیه و تحلیل می‌کند.
مطالعات صورت گرفته نشان می‌دهد اطمینان از ایمنی سامان‌های خودمختار به میلیون‌ها آزمایش فیزیکی و دهه‌ها زمان نیاز دارد. از طرفی روش‌های پیشرفته‌ی شبیه‌سازی باعث کاهش آزمایش‌های فیزیکی شده؛ اما از درجه‌ی اطمینان کمتری برخوردار هستند.
محققان قصد دارند از طریق پروژه‌ی خودکار سازی ایمن ابزارهایی را توسعه بدهند که قابلیت ارائه‌ی شواهد برای بیان صریح ایمنی را داشته و سنجش قابلیت اطمینان در سامانه‌ها را تکامل بدهند.
هدف دارپا تضمین ویژگی‌های امنیتی در محیط‌های رقابتی با طراحی و توسعه فناوری تجزیه و تحلیل دقیق برای سامانه‌های خودمختار با توانایی یادگیری است.
دارپا اعلام کرد برنامه‌ی خودمختاری ایمن در سه فاز مختلف دسته‌بندی‌شده و تا 4 سال آینده همه‌ی آن‌ها تکمیل خواهند شد.
گزارش راهبرد «سامانه‌های روباتیک و خودمختار نیروی زمینی آمریکا»[fn]U.S. Army Robotics and Autonomous Systems[/fn] در سال‌های 2014 و 2015 طیف وسیعی از قابلیت‌ها مانند افزایش آگاهی موقعیتی، کاهش کار شناختی، نیروهای دفاعی و دفاع سایبری را ذکر کرده است که به سامان‌های مستقل و سطح بالایی از خودمختاری وابسته هستند. با وجود این عوامل بسیار زیادی هستند که با پذیریش سامانه‌های خودمختار مقابله می‌کنند. از جمله‌ی این چالش‌ها می‌توان به موارد زیر اشاره کرد:

  • اپراتورها به علت وجود نداشتن سطح بالایی از خودمختاری که بتوان به آن اطمینان کرد، باید در بیشتر موارد با سامانه‌ها مشارکت داشته باشند و همین موضوع در عملیات‌ها، محدودیت‌های جدید و در زمینه‌ی نحوه برقراری ارتباط انسان و روبات، چالش‌های تازه به وجود می‌آورد.
  • دستیابی به سطح بالایی از خودمختاری در محیط‌های نامشخص، بدون ساختار و پویا به طور فزاینده‌ای به الگوریتم‌های یادگیری ماشینی، سیستم‌های منبع باز و چالش‌های مهندسی آن‌ها وابسته است.
  • الگوریتم‌های یادگیری ماشینی امروزه غیرقابل پیش‌بینی بوده و فاقد یک چارچوب ریاضی مشخص برای ارائه‌ی صحت هستند، این در حالی است که وزارت دفاع پنتاگون به رفتارهای قابل پیش‌بینی با درجه‌ی اطمینان قوی نیاز دارد؛ زیرا موفقیت مأموریت‌ها به صحت و ایمنی آن‌ها بستگی دارد.
تازه ترین ها
پیش‌بینی
1404/02/15 - 18:50- جنگ سایبری

پیش‌بینی تازه اف بی آی درباره فعالیت‌های گروه‌های طوفان چین

با گذشت نزدیک به دو سال از افشای عمومی حمله گروه هکری تحت حمایت دولت چین به زیرساخت‌های حیاتی آمریکا، تهدید ناشی از آن همچنان ادامه دارد.

بی‌خبری
1404/02/15 - 18:40- جرم سایبری

بی‌خبری بیماران، ماه‌ها پس از افشای داده‌های آزمایشگاهی

بیش از ۱۱ ماه پس از آن‌که یک گروه باج‌افزاری داده‌های شرکت خدمات پاتولوژی بریتانیایی سینوویس را منتشر کرد، هنوز به بیماران آسیب‌دیده اطلاع داده نشده که چه اطلاعاتی از آن‌ها فاش شده است.

مقام
1404/02/15 - 18:29- آمریکا

مقام شورای امنیت ملی: دولت ترامپ سناریو را تغییر خواهد داد

یک مقام ارشد کاخ سفید روز پنج‌شنبه اعلام کرد که دولت ترامپ قصد دارد استفاده از اقدامات تهاجمی سایبری را به عنوان ابزاری برای قدرت ملی عادی‌سازی کند.