about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

انتشار شده در تاریخ

شناسایی هوش‌های مصنوعی فریب خورده

سازمان آی‌آرپا قصد دارد ابزارهایی را برای شناسایی هوش‌های مصنوعی دستکاری‌شده توسعه دهد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ به نقل از «nextgov»؛ سازمان ای‌آرپا (IARPA) با انتشار برگه درخواستی به نام «TrojAI BAA» به دنبال ایده‌هایی می‌گردد که چگونگی حملات تروجان‌ها به هوش مصنوعی را شناسایی کند.

در ساده‌ترین سطح، هوش‌های مصنوعی تشخیص چهره‌ی مدرن، با توجه به حجم عظیمی از تصاویر که به عنوان ورودی به آن‌ها داده می‌شود، آموزش می‌بینند. برای مثال اگر فردی قصد دارد الگوریتمی توسعه بدهد که علائم کنار جاده را تشخیص بدهد باید حجم عظیمی از علائم مختلف را که از زوایای مختلف در تصویر دیده می‌شوند، به سامانه وارد کنند. در نتیجه الگوریتم، روابط بین پیکسل‌های عکس‌ها را آموخته و تفاوت میان تابلوهای سرعت و توقف را درک می‌کند.

با وجود این ممکن است در هنگام آموزش هوش مصنوعی، یک مهاجم چند تصویر اضافی را به بخش تشخیص‌دهنده علائم سرعت وارد کند که تابلوی ایستی را همراه با یادداشتی روی آن به نمایش می‌گذارد. از این پس هرگاه مهاجم اراده کند، سامانه‌ی آموزش دیده شده، در جهان واقعی علائم توقف را سرعت تصور می‌کند و این کار تنها با یک نوشته‌ی کوچک انجام شده است. چنین دست‌کاری ساده‌ای می‌تواند در فناوری خودروهای بی راننده به یک کابوس تبدیل شود.

ای‌آرپا قصد دارد ابزارهایی را به وجود آورد که قادر هستند هرگونه مشکل یا ناهنجاری به وجود آمده در الگوریتم‌ها را پس از پایان آموزش آن‌ها شناسایی کنند.

مثال یادشده تنها نوع حمله‌ی امکان‌پذیر به هوش‌های مصنوعی به حساب نمی‌آید. پژوهشگران هشدار داده‌اند که این دستاوردها در حوزه‌ی درک جهان پیرامون خود از معایب ذاتی برخوردار هستند. برای مثال می‌توان از طریق روشی به نام «نمونه‌های خصمانه» (adversarial examples)، اشیای فیزیکی مانند تابلوی توقف را به عنوان یک ابزار دیگر معرفی کرد. در این روش با دستکاری پیکسل‌ها به گونه‌ای که برای انسان قابل‌تشخیص نباشد، هوش مصنوعی ممکن است تصویر یک خرس قطبی را به عنوان هواپیما شناسایی کند.

هیچ‌یک از حملات تروجانی یا نمونه‌های خصمانه یادشده تاکنون در جهان واقعی مورد استفاده قرار نگرفته‌اند؛ با وجود این پژوهشگران معتقدند احتمال به کارگیری چنین روش‌هایی روزبه‌روز در حال افزایش است. به همین منظور از هم‌اکنون باید راه‌کارهایی را برای مقابله با آن‌ها شناسایی کرد.

تازه ترین ها
همکاری
1404/07/13 - 13:33- هوش مصنوعي

همکاری ژاپن و شرکت اوپن اِی آی در بخش دولتی

ژاپن و شرکت اوپن اِی آی برای نوآوری هوش مصنوعی در بخش دولتی همکاری می‌کنند.

گسترش
1404/07/13 - 12:03- سایرفناوری ها

گسترش خدمات وب آمازون در ایالت تنسی

خدمات وب آمازون در حال گسترش مهارت‌های خود به اتحادیه فناوری مشاغل در ایالت تنسی است.

ادغام
1404/07/13 - 11:00- هوش مصنوعي

ادغام آتلانتیک کوانتوم با هوش مصنوعی گوگل کوانتوم

آتلانتیک کوانتوم برای پیشبرد سخت‌افزار کوانتومی مقیاس‌پذیر به هوش مصنوعی گوگل کوانتوم می‌پیوندد.