about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

کارشناسان معتقدند پیشرفت سریع هوش مصنوعی و ادغام آن با سلاح های هسته ای، پایان دنیا را رقم خواهد زد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ به نقل از «defensenews»؛ مدتی قبل صدمین سالگرد پایان جنگ جهانی اول فرا رسید، نبردی که دیدگاه نسبت به شیوه ی مبارزه و پیروزی را تغییر داد. حال به نظر می رسد با توجه پیشرفت های صورت گرفته در هوش مصنوعی، جهان باری دیگر در لبه ی پرتگاهی از ایجاد تحول در جنگ افزارها قرار گرفته است.

در حالی که بحث پیرامون هوش مصنوعی و مفهوم قابلیت های تصمیم گیری خودمختار در جنگ افزارها همچنان در مراحل اولیه ی خود قرار دارند، احتمالا یکی از اصلی ترین حوزه هایی که بیشترین خطر را ایجاد می کند، نقش بالقوه ی هوش مصنوعی در رابطه با زمان و چگونگی به کارگیری تجهیزات هسته ای است.

در حال حاضر سرعت پیشرفت هوش مصنوعی بسیار بالا است و بدون تردید آمریکا در مسابقات تسلیحاتی این فناوری با 2 رقیب اصلی خود، یعنی چین و روسیه که هر 2 به عنوان قدرت هسته ای نیز شناخته می شوند، در کنار یکدیگر 90 درصد از زرادخانه ی هسته ای دنیا را در اختیار دارند. مقامات آمریکا ادعا می کنند، رهبری این کشور به منظور اطمینان از اینکه هوش مصنوعی فرماندهی و کنترل هسته ای را بی ثبات نمی کند، ضروری است.

در حالی که برنامه کنترل و فرماندهی هسته ای خودمختار، به سادگی منفصل می شود. تاریخ جنگ سرد، با حوادث، اشتباهات و محاسبات غلط بیان می شود که به علت خطای رایانه ها در جماهیر شوروی و آمریکا رخ داد و تقریبا باعث شکل گیری جنگ هسته ای شد.

با وجود این یکی از وقایع وحشتناکی که در دوران پس از جنگ سرد و انقلاب هوش مصنوعی امروزی از آن یاد می شود را احتمالا می توان در کتاب «دست مرگ» (The Dead Hand) دیوید هافن (David Hoffman)، مشاهده کرد که در سال 2009 منتشر شد.

جماهیر شوروی در اوایل دهه ی 80 در نظر داشت یک سیستم کاملا خودمختار را به منظور اقدام تلافی جویانه در برابر حمله ی هسته ای آمریکا، مستقر کند. این سامانه دومزدی (Doomsday machine) نام داشت. این سیستم به گونه ای برنامه ریزی شده بود که اگر رهبر کرملین در یک حادثه ی هسته ای از سوی آمریکا کشته شود، به صورت خودمختار اقدام متقابل هسته ای را انجام دهد.

در نهایت شوروی سیستمی اصلاح شده و تقریبا خودمختار را ایجاد کرد و گروهی از افسران رده پایین را مسئول آن قرار داد که با توجه به اطلاعاتی که از کشته شدن مقامات کرملین، در یک حمله ی اتمی از سوی آمریکا، تصمیم گیری می کردند. شوروی وجود این طرح را از آمریکا پنهان کرد.

همزمان با پیشرفت هوش مصنوعی و افزایش اعتماد به یادگیری ماشینی، آمریکا ادعا می کند باید تلاش های دیپلماتیک خود را به منظور صحبت با چین و روسیه، صحبت کند تا از عدم راه اندازی اقدامات بازدارنده ی هسته ای مشابه با گذشته جلوگیری به عمل آید.

در حالی که کنگره ی آمریکا نسبت به این موضوع که کنترل سلاح های هسته ای تنها در دستان یک فرمانده ی ارشد باشد، ابرار نگرانی می کنند. خطری بزرگ تر وجود دارد و آن سپردن کنترل و فرماندهی سامانه سلاح های هسته ای به هوش مصنوعی است.

برنامه های کاربردی بالقوه برای توسعه هوش مصنوعی، به منظور افزایش ثبات و اثربخشی آن در زمینه هایی مانند هشدار زود هنگام و پیش بینی تصمیم گیری توسط بازیگران بد، ردیابی و متوقف سازی گسترش سلاح های هسته ای آن هنوز نامشخص است.

برنامه های بالقوه ی مقابله با شرایط یاد شده، باید در اولیویت تامین بودجه ی دفاعی، خصوصی و دانشگاه ها باشد؛ دقیقا مشابه با اقداماتی که در دوران جنگ سرد برای تثبیت جنگ افزارهای هسته ای صورت گرفت.

با توجه به توسعه ی سریع هوش مصنوعی پیش بینی می شود تنها در آمریکا در یک بازه ی زمانی کوتاه 10 تا 15 ساله، حدود 40 درصد از مشاغل از بین بروند. با وجود این متخصصات عقیده دارند این فناوری نباید متوقف یا جایگزین شود؛ بلکه به می تواند در فرآیندهای تصمیم گیری به انسان ها کمک کند. این موضوع در مرکز کنترل و فرماندهی تجهیزات هسته ای نیز باید یک به عنوان یک اصل در نظر گرفته شود.

استانیسلاو پتروف (Stanislav Petrov)، یکی از درجه داران نظامی روسی، در سال 1983 هشدارهای بی امان رایانه را نسبت به حمله ی هسته ای آمریکا نادیده گرفت و به فرماندهان خود گزارش نداد و همین موضوع باعث آغاز یک جنگ اتمی شد. وی در سال 2010 در یک مصاحبه دلیل توجه نکردن به هشدارها را این گونه توضیح داد:

ما از رایانه ها هوشمندتر هستیم. ما آنها را ساخته ایم.

آمریکا مدعی است باید تلاش جهانی خود را به کار بگیرد تا از تکرار چنین حادثه ای در دوران هوش مصنوعی جلوگیری شود.

چندی پیش اندیشکده ی رند نیز با انتشار گزارشی شرح داد، احتمالا هوش مصنوعی در طول 40 سال آینده، یک جنگ هسته ای را آغاز خواهد کرد. این رخداد به واسطه ی تصمیم اشتباه یا تبعیض آمیز هوش مصنوعی یا هک شدن آن توسط مجرمان صورت می گیرد.

تازه ترین ها

جریمه ۶۰۰ میلیون دلاری تیک‌تاک

نهاد ناظر بر حفظ حریم خصوصی داده‌ها در ایرلند اعلام کرد که تیک‌تاک را به دلیل نقض قوانین سخت‌گیرانه اتحادیه اروپا درباره نحوه انتقال داده‌های شخصی به خارج از این اتحادیه و عدم رعایت الزامات شفافیت، ۵۳۰ میلیون یورو (معادل ۶۰۰ میلیون دلار) جریمه کرده است.

تاثیر
1404/02/14 - 15:07- جرم سایبری

تاثیر نفوذ اطلاعاتی به اسنشن هلث بر بیش از 100 هزار نفر

شرکت اسنشن هلث این هفته از وقوع یک حادثه امنیتی دیگر خبر داد و به بیش از ۱۰۰ هزار نفر در ایالت‌های مختلف هشدار داد که اطلاعات آن‌ها احتمالاً در اواخر سال گذشته به دست هکرها افتاده است.

اتهام
1404/02/14 - 14:56- جرم سایبری

اتهام آمریکا علیه یک مرد یمنی در ارتباط با حملات باج‌افزاری

دادستان‌های فدرال ایالات متحده اعلام کردند که مردی ۳۶ ساله که گمان می‌رود ساکن یمن باشد، به مدت دو سال در عملیات باج‌افزاری بلک کینگدام یا همان پادشاهی سیاه مشارکت داشته است.