about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

سازمان دارپا به منظور مقابله با تهدیدات دست‌کاری الگوریتم‌های هوش مصنوعی با شرکت اینتل و موسسه فناوری جورجیا همکاری می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ فناوری یادگیری ماشینی (ML) روزبه‌روز در حال پیشرفت بوده و در انواع مختلفی از حوزه‌ها مانند پردازش اطلاعات، حمل‌ونقل خودمختار و تحلیل تصویر مورد استفاده قرار می‌گیرد. با وجود این در صورت سو استفاده از الگوریتم‌ها یا تحریف آن ممکن است آسیب جانی یا مالی جبران‌ناپذیری رخ بدهد. در حال حاضر توجه کافی به امنیت بسترهای یادگیری ماشینی و امکان دست‌کاری و عملکرد اشتباه آن‌ها وجود ندارد.

 برای نمونه امکان تفسیر اشتباه تابلوهای راهنمایی و رانندگی توسط خودروهای بی راننده و شکل‌گیری تصادفات مرگ‌بار وجود دارد. همچنین در زمینه پردازش و طبقه‌بندی تصاویر، قرار دادن پیکسل‌های رنگی در بخش‌های خاصی از محتوا می‌تواند به عملکرد ناصحیح سیستم منجر شود.

سازمان دارپا برای مقابل با چالش یاد شده و حفاظت از الگوریتم‌های یادگیری ماشینی چند سال قبل پروژه «تضمین پایداری هوش مصنوعی در برابر خرابکاری یا گارد» (GARD) را راه‌اندازی کرد. همچنین شرکت اینتل و موسسه فناوری جورجیا نیز به عنوان مراکزی که روی این طرح فعالیت می‌کنند انتخاب شدند. اینتل در طول 4 سال گذشته به عنوان پیمان‌کار اصلی پروژه به حساب آمده، چندین میلیون دلار برای حفاظت از انجام حملات سایبری به الگوریتم‌های یادگیری ماشینی هزینه کرده است.

اقدامات دفاعی فعلی برای تنها برای حفاظت در برابر حملات خصمانه خاص و از پیش تعریف شده طراحی شده‌اند؛ اما این مسئله باعث می‌شود اگر حمله‌ای خارج از محدوده تعریف شده رخ بدهد، الگوریتم‌ها همچنان آسیب‌پذیر باقی بمانند. دارپا پروژه گارد در نظر دارد یک‌راه کار دفاعی متفاوت ایجاد کند. بستری دفاعی که انواع حملات احتمالی را در سناریوهای مختلف در نظر گرفته، طبقه‌بندی می‌کند و به مرور زمان آن را بهبود می‌دهد.

هدف اصلی پروژه گارد ایجاد پایه‌های نظری سامانه‌های یادگیری ماشینی است که نه تنها می‌توانند آسیب‌پذیری‌ها را به منظور تقویت عملکرد خود شناسایی کنند؛ بلکه امکان ایجاد یک دفاع مؤثر در برابر حملات خصمانه را خواهند داشت.

اینتل و جورجیا در فاز اول در فاز اول در تلاش هستند تا فناوری‌های تشخیص اشیا را از طریق ویژگی‌های فضایی، زمانی و مکانی در تصاویر و ویدئو تقویت کنند. با وجود این زمان به پایان رسیدن پروژه اعلام نشده است.

منبع:

تازه ترین ها
استفاده
1404/05/20 - 21:32- هوش مصنوعي

استفاده از هوش مصنوعی برای مبارزه با جرم

وزارت کشور امارات متحده عربی از هوش مصنوعی و قوانین مدرن برای مبارزه با جرم استفاده می‌کند.

وابستگی
1404/05/20 - 21:11- هوش مصنوعي

وابستگی بیش از حد کاربران به چت جی‌پی‌تی

سم آلتمن اعلام کرد که اقلیتی از کاربران چت جی‌پی‌تی در معرض آسیب ناشی از وابستگی بیش از حد به مدل‌ها هستند.

شکست
1404/05/20 - 20:36- اروپا

شکست ویکی‌پدیا در مقابل قانون ایمنی آنلاین بریتانیا

گرداننده ویکی‌پدیا در چالش دادگاهی علیه مقررات قانون ایمنی آنلاین بریتانیا شکست خورد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.