about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

انتشار شده در تاریخ

افزایش حوادث امنیتی در هوش مصنوعی

حوادث امنیتی در هوش مصنوعی، علی‌رغم کاهش جهانی در هزینه‌های نشت داده‌ها، افزایش‌یافته است.

به گزارش کارگروه فناوری اطلاعات سایبربان، گزارش شرکت آی‌بی‌ام (IBM)در مورد هزینه نقض داده‌ها در سال ۲۰۲۵، شکاف شدیدی را بین پذیرش سریع هوش مصنوعی و نظارت لازم برای ایمن‌سازی آن نشان داد.

اگرچه میانگین هزینه نقض داده‌ها در سطح جهانی اندکی به ۴.۴۴ میلیون دلار کاهش یافت، اما حوادث امنیتی مربوط به سیستم‌های هوش مصنوعی همچنان شدیدتر و مخرب‌تر هستند.

حدود ۱۳٪ از سازمان‌ها، نقض‌هایی را گزارش کردند که مربوط به مدل‌ها یا برنامه‌های هوش مصنوعی بود، درحالی‌که ۸٪ مطمئن نبودند که آیا در معرض خطر هستند یا خیر.

به طرز نگران‌کننده‌ای، تقریباً تمام نقض‌های مربوط به هوش مصنوعی بدون کنترل دسترسی رخ‌داده است که در ۶۰٪ موارد منجر به نشت داده‌ها و تقریباً در یک‌سوم موارد منجر به اختلال عملیاتی شده است. هوش مصنوعی سایه (سیستم‌های بدون مجوز یا مدیریت نشده) نقش‌محوری داشت و از هر پنج نقض، یک مورد به آن مربوط می‌شد.

سازمان‌هایی که سیاست‌های حاکمیتی هوش مصنوعی یا سیستم‌های تشخیص نداشتند، با هزینه‌های بسیار بالاتری مواجه شدند، به‌ویژه هنگامی که اطلاعات شخصی یا مالکیت معنوی قابل‌شناسایی در معرض خطر قرار می‌گرفت.

مهاجمان به طور فزاینده‌ای از ابزارهای هوش مصنوعی مانند جعل عمیق و فیشینگ استفاده می‌کردند، به‌طوری‌که ۱۶٪ از نقض‌های موردمطالعه شامل تهدیدات با کمک هوش مصنوعی بود.

بخش بهداشت و درمان با میانگین هزینه نقض امنیتی ۷.۴۲ میلیون دلار و طولانی‌ترین زمان بازیابی ۲۷۹ روز، همچنان پرهزینه‌ترین بخش باقی ماند.

باوجود خطرات، سازمان‌های کمتری قصد دارند در امنیت پس از نقض امنیتی سرمایه‌گذاری کنند. تنها ۴۹٪ قصد تقویت دفاع را دارند که نسبت به ۶۳٪ سال گذشته کاهش‌یافته است.

حتی تعداد کمتری ابزارهای امنیتی مبتنی بر هوش مصنوعی را در اولویت قرار خواهند داد.

 باتوجه‌به اینکه بسیاری از سازمان‌ها هزینه‌ها را نیز به مصرف‌کنندگان منتقل می‌کنند، بازیابی اکنون اغلب شامل پیامدهای مالی و اعتباری بلندمدت است، نه فقط بازیابی سیستم‌ها.

منبع:

تازه ترین ها
حذف
1404/10/01 - 13:27- هوش مصنوعي

حذف مشاغل توسط هوش مصنوعی در مقیاس انقلاب صنعتی

رئیس بانک انگلستان هشدار داد که هوش مصنوعی می‌تواند مشاغل را در مقیاس انقلاب صنعتی از بین ببرد.

مشارکت
1404/10/01 - 13:19- هوش مصنوعي

مشارکت گوگل با دانشگاه تل‌آویو در حوزه هوش مصنوعی

دانشگاه تل‌آویو و شرکت گوگل در اراضی اشغالی یک همکاری تحقیقاتی یک میلیون دلاری در حوزه هوش مصنوعی آغاز کردند.

جریمه
1404/10/01 - 12:21- اروپا

جریمه اپل توسط سازمان ضد انحصار ایتالیا

سازمان ضد انحصار ایتالیا، اپل را به دلیل سوءاستفاده از موقعیت برتر خود در اپ‌استور جریمه کرد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.