about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

انتشار شده در تاریخ

مقابله دارپا، با هوش مصنوعی خصمانه

سازمان دارپا، به دنبال طراحی روش‌هایي است که از الگوریتم‌های یادگیری ماشینی، در برابر حملات سایبری محافظت می‌کنند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ الگوریتم‌های یادگیری ماشینی امروزی، تا اندازه‌ای پیشرفت کرده‌اند که می‌توان از آن‌ها در زمینه‌های مختلفی مانند تولید کارآمد، پزشکی، تحلیل حجم عظیمی از داده‌ها و حمل‌ونقل خودمختار بهره گرفت. به همین دلیل، اگر در این سامانه‌ها، اشتباهی رخ بدهد، یا دست‌کاری شوند، احتمالاً آسیب‌های جانی و مالی بسیاری ایجاد خواهند شد. بنابراین یادگیری ماشینی، از دیدگاه بسیاری از افراد، یک شمشیر 2 لبه به حساب می‌آید.

هاوا سیگلمن (Hava Siegelmann)، مدیر برنامه دفتر نوآوری اطلاعات دارپا گفت:

محققان طي یک دهه گذشته، روی این موضوع تمرکز کردند که یادگیری ماشینی می‌تواند وظایف جهان واقعی را انجام داده، آن‌ها را به شکل مؤثرتری تکمیل کند. ما هم‌اکنون به این ویژگی دست‌ یافته و به سرعت آن را در زمینه‌های مختلف به کار گرفته‌ایم؛ اما در این پیشرفت، توجه بسیار کمی به آسیب‌پذیری‌های بسترهای یادگیری ماشینی، به خصوص در زمینه تغییر، تخریب، یا فریب آن داشتیم.

برای درک بهتر مسئله، پژوهشگران از مثال خودروهای بی راننده استفاده می‌کنند. در این حالت می‌توان یک وسیله نقلیه خودمختار را به‌گونه‌ای فریب داد که تابلو ایست را با چیزی دیگري اشتباه بگیرد. درحالی که یک انسان، در تفسیر تابلوی تغییر شکل یافته مشکلی ندارد؛ یک الگوریتم یادگیری ماشینی، آن را مثلاً به عنوان محدودیت سرعت كمتر از 45 كيلومتر در ساعت مشاهده خواهد کرد. در جهان واقعی، وسیله‌ی نقلیه، پس از دیدن علامت یادشده، به جای توقف، سرعتش را زیاد می‌کند كه این حادثه می‌تواند خطرات بسیاری را به دنبال داشته باشد.

سازمان دارپا، به منظور مقابله با مشکل بالا، پروژه‌ای جدید را به نام گارد (GARD1) راه‌اندازی کرد. هدف این طرح، توسعه شیوه‌های دفاعی تازه‌ای است که از مدل‌های یادگیری ماشینی در برابر حملات فریب خصمانه دفاع می‌کنند. شیوه‌های محافظت فعلی، بر مبنای حملات از پیش تعریف شده عمل کرده، همچنان نسبت به انواع دیگر آسیب‌پذیر هستند. پژوهشگران در این برنامه، قصد دارند رویکردهای دفاعی یادگیری ماشین متفاوتی را پديد آوردند که طیف وسیع‌تری از حملات احتمالی را پوشش می‌دهند.

سیگلمن ادامه داد:

حفاظت از یادگیری ماشینی، یک نیاز حیاتی است؛ زیرا این فناوری، به صورت روزافزون در بیشتر زیرساخت‌های ما به کار گرفته می‌شود. هدف پروژه‌ی گارد، حفاظت از این دستاوردها در برابر حملات احتمالی آینده است. ما باید اطمینان حاصل کنیم که این الگوریتم‌ها، ایمن باقی می‌مانند.

پروژه‌ی گارد روی 3 هدف اصلی متمرکز است:

  1. توسعه پایه‌های نظری، برای یادگیری ماشینی قابل دفاع و ایجاد فرهنگ‌نامه‌ای از مکانیزم‌های جدید دفاعی بر پایه‌ی آن‌ها.
  2. ایجاد و آزمایش سامانه‌های قابل دفاع در طیف گسترده‌ای از تنظیمات.
  3. پديد آوردن یک بستر آزمایش (testbed) جدید به منظور توصیف یادگیری ماشینی قابل دفاع مرتبط با سناریوهای تهدیدآميز مختلف.

پروژه گارد، ابتدا روی پردازش‌های تصویری تمرکز خواهد داشت؛ اما در مراحل بعد، به محتوای ویدئویی، صوتی و سامانه‌های پیچیده‌تر گسترش خواهد یافت.


  1. Guaranteeing AI Robustness against Deception
تازه ترین ها
دعوت
1404/07/28 - 17:29- اروپا

دعوت از تأمین‌کنندگان برای شرکت در نظرسنجی جدید جگوار لندروور

نظرسنجی جدیدی از شرکت‌های فعال در زنجیره تأمین شرکت جگوار لندروور آغاز شده است تا اطمینان حاصل شود که صدای کسب‌وکارهای منطقه وست میدلندز در این زمینه شنیده می‌شود.

پدر
1404/07/28 - 17:21- آسیب پذیری

پدر اویلگینکس در برابر تاریک‌ترین پیامدهای اختراع خود

کوبا گرتسکی، برنامه‌نویس لهستانی، در سال ۲۰۱۷ ابزاری به نام اویلگینکس را منتشر کرد تا به تیم‌های امنیت سایبری نشان دهد چگونه حملات فیشینگ می‌توانند حتی احراز هویت دومرحله‌ای را دور بزنند.

سامسونگ
1404/07/28 - 16:59- سایرفناوری ها

سامسونگ برای تولید تراشه هوش مصنوعی به کمک انویدیا می‌رود

سامسونگ قراردادی با انویدیا برای تولید تراشه‌های هوش مصنوعی امضا کرد.