about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

ترمز دستی هوش مصنوعی

به گزارش واحد فناوری اطلاعات سایبربان؛ فناوری هوش مصنوعی با سرعت بسیار بالایی در حال پیشرفت است. از همین رو بسیاری از دانشمندان و محققان سرشناس دنیا معتقد هستند در صورتی که توسعه‌ی آن بدون نظارت و با همین روند ادامه پیدا کند، از انسان‌ها سرکشی کرده و به خطری برای آن‌ها تبدیل می‌شود. به عنوان مثال می‌توان به افرادی مانند بیل گیتس اشاره کرد که سالانه، هزینه‌ی بسیاری را صرف برنامه‌های مقابله با خطرات هوش مصنوعی می‌کنند.
موضوع سرکشی هوش مصنوعی را می‌توان در فیلم‌ها و داستان‌های عملی-تخیلی بسیاری مانند ترمیناتور و سامانه‌ی اسکای‌نت آن مشاهده کرد. در این داستان‌ها هوش مصنوعی بسیار پیشرفت کرده و با حمله به انسان‌ها سعی می‌کند آن‌ها را تحت فرمان خود بگیرد.
عده‌ای از محققان، با توجه به موارد ذکر شده در بالا معتقدند، باید سامانه‌ای برای متوقف کردن برنامه‌های هوش مصنوعی پیدا کنند و مطمئن شوند، آن‌ها در مسیری که خطری برای انسان ایجاد کرده یا سامانه‌ی مذکور را دور بزنند، قرار ندارند. «آزمایشگاه هوش مصنوعی دیپ‌مایند گوگل» (AI lab DeepMind) و دانشگاه آکسفورد انگلیس در سال 2014، مطالعاتی را انجام دادند که نشان می‌دهد به دنبال ایجاد یک چارچوب (framework) برای کنترل هوش مصنوعی توسط انسان هستند. به بیان دیگر آن‌ها سعی دارند بستری را برای بررسی مداوم نرم‌افزارها ایجاد کرده و در صورت لزوم بتوانند آن‌ها را کنترل و حتی متوقف کنند.
در گزارشی که توسط موسسه تحقیقات هوش ماشینی آمریکا1 (MIRI) با نام «متوقف کردن بدون خطر عامل‌ها» (Safely Interruptible Agents)، منتشر گشت، اصطلاح «دکمه‌ی بزرگ قرمز» معرفی شد. در این گزارش آمده است: «اگر عامل‌های هوش مصنوعی تحت نظارت زمان واقعی انسان‌ها قرار بگیرند. اپراتور انسانی ممکن است برای متوقف کردن عاملی که در حال انجام اقدامات مضر است، دکمه‌ی بزرگ قرمز را فشار دهد. این کار عاملی را که به خود یا به محیط اطراف ضرر می‌رساند را متوقف و آن را به یک وضعیت ایمن‌تر منتقل می‌کند.»
در ادامه نوشته شده است: «با وجود این، اگر عامل‌ها یاد بگیرند از این توالی انتظار پاداش داشته باشند. ممکن است در درازمدت چگونگی جلوگیری از این وقفه را نیز متوجه شوند. به عنوان مثال عامل‌ها خواهند توانست دکمه‌ی بزرگ قرمز را از کار اندازند که نتیجه‌ی نامطلوبی را در پی خواهد داشت.»
عبارت نتیجه‌ی نامطلوب (undesirable outcome)، در اینجا برای تعریف موقعیتی به کار می‌رود که هوش مصنوعی به آرامی، مکانیزم خاموش کردن خود را از کار می‌اندازد.
هر چه بیشتر شرکت‌های حوزه‌ی فناوری اطلاعات درگیر هوش مصنوعی می‌شوند، با سرعت بیشتری پیشرفت می‌کند. به‌عنوان مثال می‌توان به هوش مصنوعی آزمایشگاه دیپ‌مایند اشاره کرد که توانست قهرمان بازی گو (یکی از قدیمی‌ترین و سخت‌ترین بازی‌های تخته‌ای) را شکست بدهد. از طرفی شرکت‌های بزرگ مانند فیس‌بوک، آمازون، مایکروسافت و گوگل هستند که برای تقویت سامانه‌های پردازش ابری خود در حال توسعه هوش‌های مصنوعی هستند.
در حال حاضر سازمان‌های خصوصی بسیاری با هدف زیر نظر گرفتن هوش مصنوعی برای توسعه در جهت مثبت شکل گرفته‌اند. به عنوان نمونه می‌توان به موسسه تحقیقات هوش ماشینی آمریکا، «موسسه‌ی آینده‌ی نوع بشر انگلیس»2 ( FHI)، شرکت تسلا (Tesla) و اسپیس ایکس (Space X) اشاره کرد که در مورد آینده‌ی هوش مصنوعی هشدار داده‌اند. ایلان ماسک (Elon Musk) مدیرعامل اسپیس ایکس و تسلا، سال گذشته یک شرکت خصوصی را با نام هوش مصنوعی متن‌باز (Open AI) تأسیس کرد تا نرم‌افزارهای مخرب و بدخواه را شناسایی کرده و از توسعه فناوری به نفع بشریت اطمینان حاصل کند. همچنین وی به تازگی با اشاره به شرکت گوگل بیان کرد، این شرکت وی را بیش از دیگر فعالان این عرصه، در زمینه هوش مصنوعی خود یادگیرنده نگران می‌کند.

_____________________________

1- Machine Intelligence Research Institute
2- Future of Humanity Institute

 

 

تازه ترین ها
آمریکا
1404/02/13 - 15:31- آمریکا

آمریکا به دنبال قطع نقش‌آفرینی صنعت جرایم سایبری جنوب‌شرق آسیا

وزارت خزانه‌داری ایالات متحده، گروه هوی‌وان مستقر در کامبوج را به‌عنوان یک نهاد دارای نگرانی اصلی در زمینه پول‌شویی معرفی کرده و پیشنهاد داده است که دسترسی این گروه به نظام مالی آمریکا قطع شود.

تحویل
1404/02/13 - 15:21- جرم سایبری

تحویل مظنون حملات باج‌افزاری نتفیلیم از اسپانیا به ایالات متحده

دادستان‌های فدرال روز پنج‌شنبه اعلام کردند که یک شهروند اوکراینی به اتهام استفاده از باج‌افزار نتفیلیم برای حمله به شرکت‌های بزرگ در ایالات متحده و سایر کشورها، به آمریکا تحویل داده شده است.

جریمه
1404/02/13 - 15:14- آمریکا

جریمه ۸.۴ میلیون دلاری برای پیمانکاران دفاعی آمریکا

دو شرکت پیمانکار دفاعی ایالات متحده، ریتیون و گروه نایت‌وینگ، موافقت کردند که برای حل‌وفصل اتهاماتی مبنی بر نقض مفاد قرارداد با وزارت دفاع، مبلغ ۸.۴ میلیون دلار به دولت پرداخت کنند.