about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

مجمع جهانی اقتصاد هوش مصنوعی را بزرگ‌ترین تهدید برای دموکراسی‌ها خواند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ در گزارشی که مجمع جهانی اقتصاد (WEF) منتشر کرده، مهم‌ترین تهدید جهانی در آینده نزدیک، نفوذ قابلیت‌های هوش مصنوعی (AI) بر سیستم‌های انتخاباتی است.

به گفته مجمع جهانی اقتصاد، در سال 2024 حدود نیمی از جمعیت بزرگسال جهان در مراکز رأی‌گیری رأی خواهند داد. در ماه می امسال، هند انتخابات پارلمانی برگزار خواهد کرد، انتخاباتی که در آن تعداد رأی‌دهندگان بالقوه بیش از 600 میلیون نفر است؛ امسال نیز انتخابات در تایوان، روسیه، ایالات متحده، آفریقای جنوبی، مکزیک و دیگر کشورهای آفریقایی پیش‌بینی می‌شود.

گزارش انجمن که توسط بیش از 1400 متخصص در مدیریت ریسک جهانی نوشته شده است، بیان می‌کند که اطلاعات غلط و فریب عمدی ناشی از هوش مصنوعی بزرگ‌ترین خطر برای کشورها است. آنها این خطر را مقدم بر خطرات ناشی از تغییرات آب و هوایی، جنگ‌ها و سایر ضعف‌های اقتصادی قرار می‌دهند.

پیامدهای استفاده از هوش مصنوعی پتانسیل ایجاد قطبی شدن اجتماعی و تغییرات قابل توجه در جمعیت‌های بزرگ را دارد.

در دهه گذشته، محققان شاهد فرآیندهای انتخاباتی در کشورهای مختلف بوده‌اند که تحت تأثیر عملیات‌های نفوذ آنلاین قرار گرفته‌اند. در این عملیات‌ها از شخصیت‌های ساختگی (آواتارها و ربات‌ها)، وب‌سایت‌ها و ابزارهای دیگر برای تأثیرگذاری بر آگاهی عمومی، گمراه کردن نتایج انتخابات و حتی تأثیرگذاری و خرابکاری مستقیم در آنها استفاده می‌شود.

استفاده روزافزون از هوش مصنوعی نه تنها کشورها و فرآیندهای انتخاباتی، بلکه شرکت‌ها و سازمان‌ها را نیز تحت تأثیر قرار خواهد داد. انتظار می‌رود هوش مصنوعی مخرب باعث شود تصمیم گیرندگان در سطوح تاکتیکی و راهبردی اقدامات اشتباهی انجام دهند.

با نگاهی به آینده، به غیر از هوش مصنوعی، موازنه خطرات برای دهه آینده به سمت شرایط آب و هوایی شدید و تغییرات حیاتی در نظم جهانی سیاسی تغییر می‌کند. دو سوم از افراد مورد بررسی پیش‌بینی کردند که یک جهان چند قطبی یا چندقطبی جدید شکل خواهد گرفت.

مجمع جهانی اقتصاد گفت که 10 خطر بزرگ برای سال‌های 2024-2025 اطلاعات غلط و فریب عمدی، شرایط آب و هوایی غیرعادی، قطبی شدن اجتماعی و بی‌ثباتی در بعد سایبری است. همچنین جنگ بین کشورها، کمبود فرصت‌های اقتصادی، تورم، مهاجرت ناخواسته، مشکلات اقتصادی و آلودگی هوا نیز شامل می‌شود.

این خطرات به ترتیب احتمال مشخص و تخمین زده شد که در دهه آینده، خطرات اصلی شرایط آب و هوایی شدید، تغییرات بحرانی در سیستم‌های زمین، از بین رفتن تنوع زیستی، فروپاشی اکوسیستم و کمبود منابع طبیعی خواهد بود. اشتباهات اطلاعاتی و فریب عمدی به عنوان خطرات کمتر ارائه شدند.

جنگ بین اوکراین و روسیه و بین رژیم صهیونیستی و حماس نیز جزء ارزیابی ریسک برای 2 سال آینده بود.

مجمع جهانی اقتصاد در گزارش خود توصیه کرد که شرکت‌ها درباره زنجیره‌های تأمین خود که به دلیل ژئوپلیتیک، تغییرات آب‌وهوایی و تهدیدات سایبری از سوی تعداد فزاینده‌ای از عوامل مخرب پیچیده‌تر شده است، مذاکره و بررسی کنند. تمرکز بر یک فرآیند دائمی و مستمر برای دستیابی به انعطاف‌پذیری در سطوح سازمانی، دولتی و بین‌المللی مورد نیاز و همکاری بیشتر بین بخش‌های دولتی و خصوصی در راستای هدایت موفقیت‌آمیز چشم‌انداز خطر به سرعت در حال تحول ضروری است.

نویسندگان این گزارش از رهبران جهان خواستند که به طور مشترک عمل و برای مقابله با این خطرات همکاری ایجاد کنند.

منبع:

تازه ترین ها
تنظیم
1404/07/12 - 17:14- هوش مصنوعي

تنظیم قانون هوش مصنوعی توسط مکزیک در بخش دوبله

مکزیک، پیش‌نویس قانونی را برای تنظیم هوش مصنوعی در دوبله و انیمیشن تهیه می‌کند.

شبکه‌های
1404/07/12 - 16:48- آسیب پذیری

شبکه‌های کامپیوتری آمریکا آسیب‌پذیرتر می‌شوند

انقضای یک قانون کلیدی در آمریکا در مورد امنیت سایبری بر آسیب‌پذیری شبکه های کامپیوتری این کشور خواهد افزود.

آزمایش واتس‌اپ در مورد یک ویژگی جدید برای استفاده از نام کاربری برای حساب

واتس‌اپ در حال آزمایش ویژگی جدیدی است که به کاربران امکان می‌دهد از نام کاربری برای حساب خود استفاده کنند.