about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

انتشار شده در تاریخ

دارپا به دنبال فریب دید رایانه‌ای

سازمان دارپا به دنبال توسعه الگوریتم‌هایی است که توانایی فریب فناوری دید رایانه‌ای را دارند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ بر اساس گزارش‌های منتشر شده سازمان دارپا قصد دارد روی ایجاد روش‌هایی تحقیق کند که امکان فریب دادن یا تضعیف الگوریتم‌های دید رایانه‌ای (Computer Vision) را فراهم می‌کنند. بر همین اساس قصد دارد پیشنهادهایی نوآورانه‌ای را که در رابطه با نحوه فعالیت دید رایانه‌ای مبتنی بر شبکه عصبی است را دریافت کند. این طرح‌ها نباید هیچ‌گونه دیدگاهی در رابطه با نحوه آموزش یا ساخت سیستم‌هایی که از کار می‌اندازند داشته باشند.

سازمان دارپا اعلام کرد:

توسعه و اکتشاف روش‌های تخریب جهانی شامل پدیده‌های علمی که موفقیت آن‌ها را ممکن می‌کند، درک ما را از ماهیت ذاتی ساختار شبکه عصبی افزایش داده و به تقویت رویکردهای آینده کمک می‌کند.

شبکه‌های عصبی بیولوژیکی که در بدن انسان و حیوانات وجود دارند، می‌توانند طیف گسترده‌ای از وظایف طبقه‌بندی شده را انجام دهند یا برای آن آموزش دیده و خود را سازگار کنند. در مقابل شبکه‌های عصبی مصنوعی (CNN) قرار دارند که در یک دهه گذشته پیشرفت چشم‌گیری داشته و هوش‌های مصنوعی قدرتمندی را به وجود آورده‌اند که توانایی انجام کارهایی مانند شناسایی و طبقه‌بندی تصاویر پیچیده را دارند. این شبکه‌ها از چندین لایه گره محاسباتی تشکیل می‌شوند که برای آموزش نیازمند حجم بسیار زیادی از تصاویر برچسب‌گذاری شده هستند.

گرگوری آویکولا (Gregory Avicola)، مدیر برنامه دارپا اشاره کرد، با وجود این که شبکه‌های عصبی مصنوعی در طول چند سال گذشته فناوری دید رایانه‌ای را تا حد زیادی تقویت کرده‌اند، توانایی فریب این سامانه‌ها را ندارند.

در برگه درخواست ارائه شده توسط دارپا به چندین روش مختلف مانند دست‌کاری پیکسل‌های تصاویر اشاره شده است. با وجود این که تغییر چند پیکسل کوچک باعث نمی‌شود انسان‌ها در تشخیص محتوا فریب بخورند؛ اما یک هوش مصنوعی ممکن است یک میمون را به عنوان پاندا شناسایی کند. این واقعیت که چنین تغییران کوچکی می‌تواند بدون فریب انسان، شبکه‌های عصبی را فریب دهد، سؤالاتی را در رابطه با ماهیت فعالیت شبکه‌ها به وجود می‌آورد.

آویکولا گفت:

شما ممکن است تاکنون نمونه‌هایی را دیده باشید که افرادی با انجام اصلاحاتی کوچک روی یک شی سعی در نامرئی کردن یا تغییر ماهیت آن از فناوری دید رایانه‌ای دارند. هدف این تحقیقات تمرکز روی ساختارهای موجود در شبکه‌های عصبی عمیق است که آسیب‌پذیری‌های ریاضیاتی را به وجود می‌آورند.

وی اشاره کرد، تحقیقات یاد شده در نهایت به بهبود معماری شبکه عصبی و افزایش سطح قابلیت اطمینان به خروجی آن می‌انجامد.

طرح یاد شده در دو فاز انجام خواهد گرفت. فاز اول روی توسعه الگوریتم‌های حمله جامع متمرکز خواهد بود. میزان موفقیت آن‌ها را حداقل در 3 شبکه مختلف مورد ارزیابی قرار می‌دهد. در فاز دوم که حضور در آن اختیاری است، محققان می‌توانند در سطح پیشرفته‌تری از آزمایش‌ها و شناسایی زیرساخت‌های الگوریتم‌ها شرکت داشته باشند. این پروژه در مجموع 18 ماه به طول خواهد انجامید.

منبع:

تازه ترین ها
درگیری
1404/05/23 - 16:44- هوش مصنوعي

درگیری ماسک و آلتمن بالا گرفت

درگیری ماسک و آلتمن بر سر تعصب ادعایی اپل در زمینه هوش مصنوعی تشدید شد.

سیاست‌گذاری
1404/05/23 - 16:02- هوش مصنوعي

سیاست‌گذاری غلط متا در حوزه هوش مصنوعی

سیاست‌های مربوط به رفتار چت‌بات شرکت متا، کودکان را درگیر مسائل جنسی می‌کند.

راه‌اندازی
1404/05/23 - 15:21- سایرفناوری ها

راه‌اندازی ویژگی جدید توسط گوگل

گوگل منابع ترجیحی را برای نتایج جستجوی سفارشی ارائه می‌دهد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.