about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

احتمال جنگ افروزی هوش مصنوعی تا 2040

پژوهشگران فکر می کنند تا پیش از سال 2040، هوش مصنوعی، جنگی اتمی را آغاز خواهد کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «iflscience»؛ هوش مصنوعی می تواند زندگی انسان ها را به شیوه های مختلف متحول کرده، بهبود بدهد و به سطح جدیدی وارد کند. مزایای ارائه شده به بخش هایی مانند بهداشت و درک احساسات کاملاً روشن است. با وجود این هر دستاورد جنبه هایی منفی دارد. بر اساس گزارش های جدید منتشر شده این فناوری قدرت راه اندازی یک جنگ هسته ای از طریق رایانه ها را دارد؛ اما نه به شیوه ای که مردم فکر می کنند.

اندیشکده ی رند (RAND)، مدتی قبل متخصصان راهبردی هوش مصنوعی و هسته ای را در کنار یکدیگر جمع کرد و از آنها خواست پیرامون سامانه های سلاح های هسته ای در سال 2040 به بحث و تبادل نظر بپردازند. بر اساس تحقیقات صورت گرفته 3 سناریوی مختلف به وجود آمد که اولین با به علت تضعیف امنیت هسته ای جهان به حقیقت می پیوندد.

منظور، روبات های قاتلی نیستند که افرادی مانند ایلان ماسک نسبت به توسعه ی بدون نظارت آنها هشدار می دهند. این ماشین ها در مراحل اولیه ی توسعه قرار داشته و هوش مصنوعی ساده ای دارند به گونه ای که حتی برای انجام کارهایی ساده نیز ممکن است عکس العملی غیر منتظره نشان دهند. در نتیجه انسان ها دقیقا مدیریت سامانه های هسته ای را به آنها نخواهند سپرد.

در متن گزارش آمده است:

رایانه ها احتمالاً قوانین پایه ی بازدارنگی هسته ای را به چالش خواهند کشید و انسان ها را به سوی تصمیم گیری های مخرب سوق می دهند.

جمله ی بالا ایده ی اشتباهات رایانه ای را مطرح می کند. مشهور ترین مثال برای این موضوع، خطای سیستمی ماهواره در سال 1983 است که ممکن بود باعث شروع جنگی هسته ای بشود؛ اما گزارش بالا روی این موضوع تمرکز نمی کند.

در حقیقت پژوهشگران تا حدودی نگران توسعه بسیار سریع سامانه های هوشمند ارتشی هستند. این مسئله باعث شده است شکل جدیدی از رقابت های تسلیحاتی به وجود آمده، تعادل قدرت را در سراسر جهان بر هم خواهد زد.

تخریب حتمی متقابل (MAD ) – اگر من را نابود کنی، نابودت می کنم- به این معنا است که طرف های حاضر در جنگ سرد، خطر نکرده، برای حفظ بقا و امنیت خود، حاضر به حمله نیستند. این در حالی است که اکنون تعادل قدرت یاد شده وجود دارد و کشورها را از نابودی یکدیگر باز می دارد.
پژوهش بالا نشان می دهد، توسعه ی روز افزون هوش مصنوعی، باعث خواهد شد دشمنان به شکل بی سابقه ای مضطرب شوند.

در نظر بگیرید یک کشور یا اتحاد، هوشی مصنوعی توسعه خواهد داد که قابلیت نظارت و تشخیص تهدیدات را در سراسر جهان را دارد. با صرف نظر از اینکه هوش مصنوعی چه مقدار خوب نقش خود را ایفا می کند. این ابتکار می تواند رقیب ناخوشایندی برای وجود چنین سامانه ی پیشرفته ای به وجود آورد. آنها تصور دارند اگر در طرح کلی برنامه تعلل کنند، آن را از دست داده و سردرگم می شوند. وضعیت یاد شده حتی می تواند استفاده از حملات پیشگیرانه برای جلوگیری از رقابت های هوش مصنوعی در ایجاد تعادل اجتناب ناپذیر جهانی را حمایت کند.

ادوارد گیست (Edward Geist)، پژوهشگر سیاسی رند گفت:

سامانه های خودمختار برای تضعیف ثبات و ایجاد جنگی مصیبت بار، نیازی به کشتن مردم ندارد.

با وجود مباحث بالا تنها یک احتمال وجود دارد. هوش مصنوعی به جای خطر آفرینی، تاثیراتی متعادل ایجاد کند. زمانی که دستاورد مذکور بی عاطفه و منطقی باقی بماند، اگر همه چیز ناپایدار بشود؛ قادر به شناسایی و هشدار نسبت به تهدیدات جهان است. به صورت همزمان احتمالاً می تواند جلوی اشتباهات فاجعه بار انسانی را بگیرد.

پژوهشگران در نهایت اعلام کردند، هوش مصنوعی تا سال 2040، به اندازه ای پیشرفت نمی کند که بتواند روی امنیت هسته ای تأثیر گذار باشد؛ اما امکان به کارگیری این دستاورد به شیوه ی منفی در صورتی دستکاری یا هک سامانه ها وجود دارد.


  1. Mutually assured destruction
تازه ترین ها

جریمه ۶۰۰ میلیون دلاری تیک‌تاک

نهاد ناظر بر حفظ حریم خصوصی داده‌ها در ایرلند اعلام کرد که تیک‌تاک را به دلیل نقض قوانین سخت‌گیرانه اتحادیه اروپا درباره نحوه انتقال داده‌های شخصی به خارج از این اتحادیه و عدم رعایت الزامات شفافیت، ۵۳۰ میلیون یورو (معادل ۶۰۰ میلیون دلار) جریمه کرده است.

تاثیر
1404/02/14 - 15:07- جرم سایبری

تاثیر نفوذ اطلاعاتی به اسنشن هلث بر بیش از 100 هزار نفر

شرکت اسنشن هلث این هفته از وقوع یک حادثه امنیتی دیگر خبر داد و به بیش از ۱۰۰ هزار نفر در ایالت‌های مختلف هشدار داد که اطلاعات آن‌ها احتمالاً در اواخر سال گذشته به دست هکرها افتاده است.

اتهام
1404/02/14 - 14:56- جرم سایبری

اتهام آمریکا علیه یک مرد یمنی در ارتباط با حملات باج‌افزاری

دادستان‌های فدرال ایالات متحده اعلام کردند که مردی ۳۶ ساله که گمان می‌رود ساکن یمن باشد، به مدت دو سال در عملیات باج‌افزاری بلک کینگدام یا همان پادشاهی سیاه مشارکت داشته است.