about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

مقامات انگلیسی درباره ادغام چت‌بات‌های مبتنی بر هوش مصنوعی در کسب‌وکار سازمان‌های مختلف هشدار دادند.

به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از رویترز، به گفته مقامات انگلیسی تحقیقات نشان داده که می‌توان این ابزار‌ها را برای انجام کار‌های خطرناک فریب داد.
 
مرکز امنیت سایبری ملی انگلیس (NCSC) در یک پست وبلاگی اعلام کرد که کارشناسان هنوز نتوانسته اند مشکلات امنیتی مرتبط با الگوریتم‌هایی را شناسایی کنند که می‌توانند تعاملات انسانی ایجاد کنند و به مدل‌های زبانی بزرگ (LLM) مشهورند.
 
استفاده از ابزار‌های مبتنی بر هوش مصنوعی نه تنها به رشد کاربرد چت‌بات‌ها منجر شده بلکه برخی معتقدند علاوه بر آنکه جایگزین جستجوی اینترنتی می‌شود، بخش سرویس‌های مشتریان و تماس‌ها برای فروش را نیز از آنِ خود می‌کند.
 
طبق گزارش مرکز امنیت سایبری ملی انگلیس، این ابزار‌ها می‌توانند خطراتی را به همراه داشته باشند، به ویژه اگر مدل‌های زبانی بزرگ به سایر عناصر فرآیند‌های تجاری سازمان متصل شوند. 
 
محققان بار‌ها راه‌هایی یافته‌اند که با ارسال دستور‌های ممنوع به چت‌بات‌ها یا گمراه کردن آن‌ها و دور زدن اقدامات محافظتی، این ابزار‌ها را از کار می‌اندازند.
 
به عنوان مثال، یک ربات‌چت مبتنی بر هوش مصنوعی که توسط یک بانک استفاده شده، ممکن است فریب داده شود تا یک تراکنش غیرمجاز انجام دهد.
 
NCSC در یکی از پست‌های وبلاگی خود با اشاره به ارائه ازمایشی نسخه‌های نرم‌افزاری اعلام کرد: سازمان‌های خدماتی که از LLM استفاده می‌کنند باید مانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه می‌کنند، مراقب باشند.
 
ممکن است سازمان‌ها اجازه ندهند آن محصول آزمایشی از سوی مشتری تراکنشی انجام دهد و به طور کلی آن را معتبر ندانند. همین اقدامات احتیاطی باید در مدل‌های زبانی بزرگ نیز انجام شود.
 
پیامد‌های امنیتی هوش مصنوعی نیز همچنان در کانون توجه قرار دارد و مقامات سراسر جهان می‌گویند که شاهد استقبال هکر‌ها از این فناوری بوده اند.

تازه ترین ها
سوءاستفاده
1404/10/02 - 17:55- هوش مصنوعي

سوءاستفاده آنلاین از زنان توسط هوش مصنوعی

هوش مصنوعی به سوءاستفاده آنلاین از زنان در عرصه عمومی دامن می‌زند.

شبیه‌سازی
1404/10/02 - 17:31- هوش مصنوعي

شبیه‌سازی پلاسمای همجوشی توسط هوش مصنوعی

دانشمندان یک مدل هوش مصنوعی توسعه داده‌اند که قادر به شبیه‌سازی پلاسمای همجوشی در عرض چند ثانیه است.

لایحه
1404/10/02 - 16:53- هوش مصنوعي

لایحه جامع حقوق هوش مصنوعی در فلوریدا

فلوریدا در حال تصویب یک لایحه جامع حقوق هوش مصنوعی است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.