about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

مؤسسه تحقیقات مشترک هوش مصنوعی راه‌اندازی شد.

به گزارش کارگروه فناوری اطلاعات سایبریان؛ 3 شرکت در حال راه‌اندازی یک مؤسسه تحقیقاتی با هدف اصلی تقویت حریم خصوصی و اعتماد برای هوش مصنوعی (AI) غیرمتمرکز هستند.

انستیتوی تحقیقاتی همكاری هوش مصنوعی خصوصی، كه در ابتدا به‌وسیله دفتر تحقیق و همکاری دانشگاه اینتل (URC) تأسیس شده، در یك پروژه مشترك با آواست (Avast)، فروشنده امنیت دیجیتال و حریم خصوصی و «Borsetta»، شركت خدمات سخت‌افزاری محاسبات امن تعریف شده به‌وسیله نرم‌افزار هوش مصنوعی، راه‌اندازی می‌شود.

میشال پژوچک (Michal Pechoucek )، مدیر ارشد فناوری در آواست گفت :

«در حالیکه هوش مصنوعی به تدریج در حال افزایش و قدرت است، ما به جایی رسیده‌ایم که اقدامات و نه فقط گفتگو لازم است. ما خوشحالیم که با همکاری اینتل و بورستا از توانایی بالقوه هوش مصنوعی برای حفظ امنیت افراد و داده‌های آنها همکاری می‌کنیم.»

هدف شرکت‌ها برای تمرکززدایی هوش مصنوعی، حفظ حریم خصوصی و امنیت، آزادسازی داده‌های غیرقابل دسترسی از سیلوها و حفظ کارایی خود است. این 3 شرکت گفتند که آموزش متمرکز می‌تواند به راحتی با تغییر داده‌ها در هر نقطه بین مجموعه و ابر مورد حمله قرار گیرد.

یکی دیگر از مسائل امنیتی پیرامون هوش مصنوعی معاصر ناشی از محدودیت‌های یادگیری ماشینی فدرال، روش مورد استفاده برای آموزش الگوریتم در چندین دستگاه پیشرفته غیرمتمرکز، است.

در حالیکه هوش مصنوعی امروزی به صورت پیشرفته قابل دسترسی است، تیم پشتیبان این مؤسسه اعلام کرد که این روش نمی‌تواند به طور همزمان دقت، حریم خصوصی و امنیت را تضمین کند.

ریچارد اوهلیگ (Richard Uhlig)، عضو ارشد و مدیر آزمایشگاه‌های اینتل در این خصوص اظهار داشت که تحقیقات در مورد هوش مصنوعی مسئولانه، ایمن و خصوصی برای تحقق پتانسیل واقعی آن بسیار مهم است.

بورستا گفت که با اعتماد به نفس در ایجاد یک چارچوب حفظ حریم خصوصی برای حمایت از دنیای پیوند یافته آینده قدرت یافته به‌وسیله هوش مصنوعی، از این همکاری الهام گرفته است.

پاملا نورتون (Pamela Norton)، مدیرعامل بورستا گفت :

«مأموریت انستیتوی مشترک هوش مصنوعی خصوصی با دیدگاه ما برای امنیت اثبات آینده مطابقت دارد، جایی که داده‌ها با خدمات محاسباتی پیشرفته قابل اعتماد محافظت می‌شوند. اعتماد، ارز آینده خواهد بود و ما باید ضمن اعتماد به نفس، شفافیت و امنیت، سیستم‌های پیشرفته تعبیه شده هوش مصنوعی را طراحی و در عین حال ارزش‌های انسانی منعکس شده را تقویت کنیم.»

فراخوان پیشنهادهای پژوهشی که اوایل سال جاری صادر شد، منجر به انتخاب 9 پروژه تحقیقاتی در 8 دانشگاه بلژیک، کانادا، آلمان، سنگاپور و ایالات متحده برای دریافت پشتیبانی مؤسسه شده است.

منبع:

تازه ترین ها
تعمیق
1404/09/24 - 18:25- اروپا

تعمیق روابط اوکراین و استونی در حوزه امنیت سایبری

اوکراین همکاری خود را با استونی در زمینه حکومتداری دیجیتال و امنیت سایبری عمیق‌تر کرد.

هشدار
1404/09/24 - 16:37- اروپا

هشدار رئیس ام آی 6 درباره افزایش فشار بر پوتین

رئیس جدید سرویس اطلاعات مخفی بریتانیا در نخستین سخنرانی عمومی خود در روز دوشنبه درباره تهدید حاد ناشی از روسیه‌ای «تهاجمی، توسعه‌طلب و تجدیدنظرطلب» هشدار خواهد داد.

تداوم
1404/09/24 - 16:28- آمریکا

تداوم هک گسترده شبکه‌های مخابراتی آمریکا توسط چین

مارک وارنر، سناتور دموکرات از ایالت ویرجینیا، اعلام کرد که چین همچنان در حال هک شبکه‌های مخابراتی ایالات متحده است؛ حمله‌ای سایبری که به این کشور امکان می‌دهد به ارتباطات تقریباً همه آمریکایی‌ها دسترسی پیدا کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.