about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

انتشار شده در تاریخ

شناسایی هوش‌های مصنوعی فریب خورده

سازمان آی‌آرپا قصد دارد ابزارهایی را برای شناسایی هوش‌های مصنوعی دستکاری‌شده توسعه دهد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ به نقل از «nextgov»؛ سازمان ای‌آرپا (IARPA) با انتشار برگه درخواستی به نام «TrojAI BAA» به دنبال ایده‌هایی می‌گردد که چگونگی حملات تروجان‌ها به هوش مصنوعی را شناسایی کند.

در ساده‌ترین سطح، هوش‌های مصنوعی تشخیص چهره‌ی مدرن، با توجه به حجم عظیمی از تصاویر که به عنوان ورودی به آن‌ها داده می‌شود، آموزش می‌بینند. برای مثال اگر فردی قصد دارد الگوریتمی توسعه بدهد که علائم کنار جاده را تشخیص بدهد باید حجم عظیمی از علائم مختلف را که از زوایای مختلف در تصویر دیده می‌شوند، به سامانه وارد کنند. در نتیجه الگوریتم، روابط بین پیکسل‌های عکس‌ها را آموخته و تفاوت میان تابلوهای سرعت و توقف را درک می‌کند.

با وجود این ممکن است در هنگام آموزش هوش مصنوعی، یک مهاجم چند تصویر اضافی را به بخش تشخیص‌دهنده علائم سرعت وارد کند که تابلوی ایستی را همراه با یادداشتی روی آن به نمایش می‌گذارد. از این پس هرگاه مهاجم اراده کند، سامانه‌ی آموزش دیده شده، در جهان واقعی علائم توقف را سرعت تصور می‌کند و این کار تنها با یک نوشته‌ی کوچک انجام شده است. چنین دست‌کاری ساده‌ای می‌تواند در فناوری خودروهای بی راننده به یک کابوس تبدیل شود.

ای‌آرپا قصد دارد ابزارهایی را به وجود آورد که قادر هستند هرگونه مشکل یا ناهنجاری به وجود آمده در الگوریتم‌ها را پس از پایان آموزش آن‌ها شناسایی کنند.

مثال یادشده تنها نوع حمله‌ی امکان‌پذیر به هوش‌های مصنوعی به حساب نمی‌آید. پژوهشگران هشدار داده‌اند که این دستاوردها در حوزه‌ی درک جهان پیرامون خود از معایب ذاتی برخوردار هستند. برای مثال می‌توان از طریق روشی به نام «نمونه‌های خصمانه» (adversarial examples)، اشیای فیزیکی مانند تابلوی توقف را به عنوان یک ابزار دیگر معرفی کرد. در این روش با دستکاری پیکسل‌ها به گونه‌ای که برای انسان قابل‌تشخیص نباشد، هوش مصنوعی ممکن است تصویر یک خرس قطبی را به عنوان هواپیما شناسایی کند.

هیچ‌یک از حملات تروجانی یا نمونه‌های خصمانه یادشده تاکنون در جهان واقعی مورد استفاده قرار نگرفته‌اند؛ با وجود این پژوهشگران معتقدند احتمال به کارگیری چنین روش‌هایی روزبه‌روز در حال افزایش است. به همین منظور از هم‌اکنون باید راه‌کارهایی را برای مقابله با آن‌ها شناسایی کرد.

تازه ترین ها
دستورالعمل
1404/11/17 - 00:26- آمریکا

دستورالعمل آژانس امنیت سایبری آمریکا برای تقویت دستگاه‌های اج

آژانس امنیت سایبری و زیرساخت‌های آمریکا با صدور دستورالعملی اجباری، تمام آژانس‌های فدرال را ملزم کرد تا دستگاه‌های سخت‌افزاری و نرم‌افزاری قدیمی و پشتیبانی‌نشده را از شبکه‌های خود حذف کنند.

حمله
1404/11/17 - 00:19- جرم سایبری

حمله سایبری گسترده به یکی از بزرگ‌ترین دانشگاه‌های اروپا

دانشگاه «لا ساپینزای» رم، با حدود ۱۲۰ هزار دانشجو، پس از یک حمله باج‌افزاری احتمالی، سیستم‌های رایانه‌ای خود را به مدت سه روز از دسترس خارج کرد.

سیاست‌های
1404/11/17 - 00:11- آمریکا

سیاست‌های جدید سایبری ایالت نوادا

ایالت نوادا در پی یک حمله سایبری در اواخر تابستان که بخش عمده‌ای از زیرساخت‌های این ایالت را تحت تأثیر قرار داد، در حال اجرای سیاست‌های جدیدی است.