about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای گنجشک درنده(گروهی منتسب به آمریکا) مدعی حمله سایبری به بانک سپه شدند.

انتشار شده در تاریخ

مقابله دارپا، با هوش مصنوعی خصمانه

سازمان دارپا، به دنبال طراحی روش‌هایي است که از الگوریتم‌های یادگیری ماشینی، در برابر حملات سایبری محافظت می‌کنند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ الگوریتم‌های یادگیری ماشینی امروزی، تا اندازه‌ای پیشرفت کرده‌اند که می‌توان از آن‌ها در زمینه‌های مختلفی مانند تولید کارآمد، پزشکی، تحلیل حجم عظیمی از داده‌ها و حمل‌ونقل خودمختار بهره گرفت. به همین دلیل، اگر در این سامانه‌ها، اشتباهی رخ بدهد، یا دست‌کاری شوند، احتمالاً آسیب‌های جانی و مالی بسیاری ایجاد خواهند شد. بنابراین یادگیری ماشینی، از دیدگاه بسیاری از افراد، یک شمشیر 2 لبه به حساب می‌آید.

هاوا سیگلمن (Hava Siegelmann)، مدیر برنامه دفتر نوآوری اطلاعات دارپا گفت:

محققان طي یک دهه گذشته، روی این موضوع تمرکز کردند که یادگیری ماشینی می‌تواند وظایف جهان واقعی را انجام داده، آن‌ها را به شکل مؤثرتری تکمیل کند. ما هم‌اکنون به این ویژگی دست‌ یافته و به سرعت آن را در زمینه‌های مختلف به کار گرفته‌ایم؛ اما در این پیشرفت، توجه بسیار کمی به آسیب‌پذیری‌های بسترهای یادگیری ماشینی، به خصوص در زمینه تغییر، تخریب، یا فریب آن داشتیم.

برای درک بهتر مسئله، پژوهشگران از مثال خودروهای بی راننده استفاده می‌کنند. در این حالت می‌توان یک وسیله نقلیه خودمختار را به‌گونه‌ای فریب داد که تابلو ایست را با چیزی دیگري اشتباه بگیرد. درحالی که یک انسان، در تفسیر تابلوی تغییر شکل یافته مشکلی ندارد؛ یک الگوریتم یادگیری ماشینی، آن را مثلاً به عنوان محدودیت سرعت كمتر از 45 كيلومتر در ساعت مشاهده خواهد کرد. در جهان واقعی، وسیله‌ی نقلیه، پس از دیدن علامت یادشده، به جای توقف، سرعتش را زیاد می‌کند كه این حادثه می‌تواند خطرات بسیاری را به دنبال داشته باشد.

سازمان دارپا، به منظور مقابله با مشکل بالا، پروژه‌ای جدید را به نام گارد (GARD1) راه‌اندازی کرد. هدف این طرح، توسعه شیوه‌های دفاعی تازه‌ای است که از مدل‌های یادگیری ماشینی در برابر حملات فریب خصمانه دفاع می‌کنند. شیوه‌های محافظت فعلی، بر مبنای حملات از پیش تعریف شده عمل کرده، همچنان نسبت به انواع دیگر آسیب‌پذیر هستند. پژوهشگران در این برنامه، قصد دارند رویکردهای دفاعی یادگیری ماشین متفاوتی را پديد آوردند که طیف وسیع‌تری از حملات احتمالی را پوشش می‌دهند.

سیگلمن ادامه داد:

حفاظت از یادگیری ماشینی، یک نیاز حیاتی است؛ زیرا این فناوری، به صورت روزافزون در بیشتر زیرساخت‌های ما به کار گرفته می‌شود. هدف پروژه‌ی گارد، حفاظت از این دستاوردها در برابر حملات احتمالی آینده است. ما باید اطمینان حاصل کنیم که این الگوریتم‌ها، ایمن باقی می‌مانند.

پروژه‌ی گارد روی 3 هدف اصلی متمرکز است:

  1. توسعه پایه‌های نظری، برای یادگیری ماشینی قابل دفاع و ایجاد فرهنگ‌نامه‌ای از مکانیزم‌های جدید دفاعی بر پایه‌ی آن‌ها.
  2. ایجاد و آزمایش سامانه‌های قابل دفاع در طیف گسترده‌ای از تنظیمات.
  3. پديد آوردن یک بستر آزمایش (testbed) جدید به منظور توصیف یادگیری ماشینی قابل دفاع مرتبط با سناریوهای تهدیدآميز مختلف.

پروژه گارد، ابتدا روی پردازش‌های تصویری تمرکز خواهد داشت؛ اما در مراحل بعد، به محتوای ویدئویی، صوتی و سامانه‌های پیچیده‌تر گسترش خواهد یافت.


  1. Guaranteeing AI Robustness against Deception
تازه ترین ها
اقتصاد
1404/05/28 - 17:29- آسیا

اقتصاد عملیات‌های کلاهبرداری سایبری در جنوب شرقی آسیا

به گفته کارشناسان، عملیات‌های کلاهبرداری سایبری در جنوب شرقی آسیا بخشی از یک صنعت غیرقانونی گسترده و در حال تکامل است.

رونمایی
1404/05/28 - 17:13- هوش مصنوعي

رونمایی از اولین خانواده مجازی اماراتی به رهبری دختر هوش مصنوعی

سازمان دیجیتال دبی از اولین خانواده مجازی اماراتی به رهبری دختر هوش مصنوعی به نام «لطیفه» رونمایی کرد.

آموزش
1404/05/28 - 12:18- هوش مصنوعي

آموزش متخصصان محلی در مالزی توسط هواوی

هواوی متعهد شده است که تحت یک ابتکار جدید، 30 هزار متخصص محلی را در مالزی آموزش دهد.