about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

کارشناسان معتقدند پیشرفت سریع هوش مصنوعی و ادغام آن با سلاح های هسته ای، پایان دنیا را رقم خواهد زد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ به نقل از «defensenews»؛ مدتی قبل صدمین سالگرد پایان جنگ جهانی اول فرا رسید، نبردی که دیدگاه نسبت به شیوه ی مبارزه و پیروزی را تغییر داد. حال به نظر می رسد با توجه پیشرفت های صورت گرفته در هوش مصنوعی، جهان باری دیگر در لبه ی پرتگاهی از ایجاد تحول در جنگ افزارها قرار گرفته است.

در حالی که بحث پیرامون هوش مصنوعی و مفهوم قابلیت های تصمیم گیری خودمختار در جنگ افزارها همچنان در مراحل اولیه ی خود قرار دارند، احتمالا یکی از اصلی ترین حوزه هایی که بیشترین خطر را ایجاد می کند، نقش بالقوه ی هوش مصنوعی در رابطه با زمان و چگونگی به کارگیری تجهیزات هسته ای است.

در حال حاضر سرعت پیشرفت هوش مصنوعی بسیار بالا است و بدون تردید آمریکا در مسابقات تسلیحاتی این فناوری با 2 رقیب اصلی خود، یعنی چین و روسیه که هر 2 به عنوان قدرت هسته ای نیز شناخته می شوند، در کنار یکدیگر 90 درصد از زرادخانه ی هسته ای دنیا را در اختیار دارند. مقامات آمریکا ادعا می کنند، رهبری این کشور به منظور اطمینان از اینکه هوش مصنوعی فرماندهی و کنترل هسته ای را بی ثبات نمی کند، ضروری است.

در حالی که برنامه کنترل و فرماندهی هسته ای خودمختار، به سادگی منفصل می شود. تاریخ جنگ سرد، با حوادث، اشتباهات و محاسبات غلط بیان می شود که به علت خطای رایانه ها در جماهیر شوروی و آمریکا رخ داد و تقریبا باعث شکل گیری جنگ هسته ای شد.

با وجود این یکی از وقایع وحشتناکی که در دوران پس از جنگ سرد و انقلاب هوش مصنوعی امروزی از آن یاد می شود را احتمالا می توان در کتاب «دست مرگ» (The Dead Hand) دیوید هافن (David Hoffman)، مشاهده کرد که در سال 2009 منتشر شد.

جماهیر شوروی در اوایل دهه ی 80 در نظر داشت یک سیستم کاملا خودمختار را به منظور اقدام تلافی جویانه در برابر حمله ی هسته ای آمریکا، مستقر کند. این سامانه دومزدی (Doomsday machine) نام داشت. این سیستم به گونه ای برنامه ریزی شده بود که اگر رهبر کرملین در یک حادثه ی هسته ای از سوی آمریکا کشته شود، به صورت خودمختار اقدام متقابل هسته ای را انجام دهد.

در نهایت شوروی سیستمی اصلاح شده و تقریبا خودمختار را ایجاد کرد و گروهی از افسران رده پایین را مسئول آن قرار داد که با توجه به اطلاعاتی که از کشته شدن مقامات کرملین، در یک حمله ی اتمی از سوی آمریکا، تصمیم گیری می کردند. شوروی وجود این طرح را از آمریکا پنهان کرد.

همزمان با پیشرفت هوش مصنوعی و افزایش اعتماد به یادگیری ماشینی، آمریکا ادعا می کند باید تلاش های دیپلماتیک خود را به منظور صحبت با چین و روسیه، صحبت کند تا از عدم راه اندازی اقدامات بازدارنده ی هسته ای مشابه با گذشته جلوگیری به عمل آید.

در حالی که کنگره ی آمریکا نسبت به این موضوع که کنترل سلاح های هسته ای تنها در دستان یک فرمانده ی ارشد باشد، ابرار نگرانی می کنند. خطری بزرگ تر وجود دارد و آن سپردن کنترل و فرماندهی سامانه سلاح های هسته ای به هوش مصنوعی است.

برنامه های کاربردی بالقوه برای توسعه هوش مصنوعی، به منظور افزایش ثبات و اثربخشی آن در زمینه هایی مانند هشدار زود هنگام و پیش بینی تصمیم گیری توسط بازیگران بد، ردیابی و متوقف سازی گسترش سلاح های هسته ای آن هنوز نامشخص است.

برنامه های بالقوه ی مقابله با شرایط یاد شده، باید در اولیویت تامین بودجه ی دفاعی، خصوصی و دانشگاه ها باشد؛ دقیقا مشابه با اقداماتی که در دوران جنگ سرد برای تثبیت جنگ افزارهای هسته ای صورت گرفت.

با توجه به توسعه ی سریع هوش مصنوعی پیش بینی می شود تنها در آمریکا در یک بازه ی زمانی کوتاه 10 تا 15 ساله، حدود 40 درصد از مشاغل از بین بروند. با وجود این متخصصات عقیده دارند این فناوری نباید متوقف یا جایگزین شود؛ بلکه به می تواند در فرآیندهای تصمیم گیری به انسان ها کمک کند. این موضوع در مرکز کنترل و فرماندهی تجهیزات هسته ای نیز باید یک به عنوان یک اصل در نظر گرفته شود.

استانیسلاو پتروف (Stanislav Petrov)، یکی از درجه داران نظامی روسی، در سال 1983 هشدارهای بی امان رایانه را نسبت به حمله ی هسته ای آمریکا نادیده گرفت و به فرماندهان خود گزارش نداد و همین موضوع باعث آغاز یک جنگ اتمی شد. وی در سال 2010 در یک مصاحبه دلیل توجه نکردن به هشدارها را این گونه توضیح داد:

ما از رایانه ها هوشمندتر هستیم. ما آنها را ساخته ایم.

آمریکا مدعی است باید تلاش جهانی خود را به کار بگیرد تا از تکرار چنین حادثه ای در دوران هوش مصنوعی جلوگیری شود.

چندی پیش اندیشکده ی رند نیز با انتشار گزارشی شرح داد، احتمالا هوش مصنوعی در طول 40 سال آینده، یک جنگ هسته ای را آغاز خواهد کرد. این رخداد به واسطه ی تصمیم اشتباه یا تبعیض آمیز هوش مصنوعی یا هک شدن آن توسط مجرمان صورت می گیرد.

تازه ترین ها
همکاری
1404/07/14 - 17:57- هوش مصنوعي

همکاری استراتژیک AMD و OpenAI جهت گسترش زیرساخت‌های هوش مصنوعی

شرکت‌های AMD و OpenAI امروز از توافق‌نامه‌ای برای تأمین 6 گیگاوات توان پردازشی جهت پشتیبانی از زیرساخت هوش مصنوعی نسل بعدی OpenAI با استفاده از چند نسل از پردازنده‌های گرافیکی AMD Instinct خبر دادند.

هوش
1404/07/14 - 17:54- هوش مصنوعي

هوش مصنوعی دانشگاه امیرکبیر ارتفاع امواج دریایی را پیش بینی می‌کند

پژوهشگران دانشگاه صنعتی امیرکبیر موفق به توسعه یک مدل نوآورانه مبتنی بر یادگیری ماشین شده‌اند که می‌تواند ارتفاع موج شاخص را با دقتی بین ۹۳ تا ۹۷ درصد پیش‌بینی کند.

گوگل
1404/07/14 - 17:52- سایرفناوری ها

گوگل محدودسازی نصب برنامه از منابع غیررسمی در اندروید را تأیید کرد

گوگل مدعی است که این تغییرات جدید به ارتقای امنیت کاربران منجر خواهد شد.