about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای گنجشک درنده(گروهی منتسب به آمریکا) مدعی حمله سایبری به بانک سپه شدند.

وزارت دفاع آمریکا پیش نویس خط مشی‌های استفاده اخلاقی از هوش مصنوعی را تدوین کرده تا استفاده از این سیستم‌ها قاعده‌مند شده و از سرکشی آنها جلوگیری شود.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ به نقل از انگجت، با توجه به اینکه استفاده از هوش مصنوعی برای تولید انواع تسلیحات می تواند به ابداع سلاح های مرگباری منجر شود که خارج از کنترل انسان دست به کشتارهای مرگبار و بی ضابطه بزنند، برخی کشورهای جهان در تلاش هستند تا قوانینی را برای استفاده اخلاقی از هوش مصنوعی در صحنه های نبرد وضع کنند و پنتاگون هم در این زمینه وارد عمل شد.

در همین راستا وزارت دفاع آمریکا، پیش نویس دستورالعملی را با موضوع اخلاق هوش مصنوعی به نگارش درآورده که کنترل و مدیریت این فناوری نوظهور را تسهیل می کند. در این دستورالعمل به مسؤولیت‌های انسان ها برای کنترل هوش مصنوعی اشاره شده و پیشنهادهایی برای مهار آن در حین حفظ کارآیی و قابلیت های خاص هوش مصنوعی ارائه شده است.

در بخشی از این پیش نویس تصریح شده الگوریتم های هوش مصنوعی باید به گونه ای تدوین شوند که از رفتار متعصبانه ناخواسته محصولات مبتنی بر هوش مصنوعی جلوگیری شود و جلوی نژادپرستی یا رفتار جنسیت زده آنها گرفته شود، همچنین نباید محصولات هوش مصنوعی به گونه ای طراحی شوند که با مردم مختلف به دلایل گوناگون ناعادلانه رفتار شود، همچنین ارتش آمریکا باید تضمین کند که علاوه بر کدهای برنامه نویسی، منابع داده آن هم بی طرف و بدون غرض ورزی باقی بمانند تا از سلاح های هوش مصنوعی برای کشتار طیف ها و گروه هایی خاص از غیرنظامیان سواستفاده نشود.

در ادامه این پیش نویس چنین آمده که هوش مصنوعی باید به گونه ای قابل مدیریت و کنترل طراحی شود تا اگر از آن برای وارد آوردن آسیب های غیرضروری سواستفاده شد، امکان متوقف کردن این روند وجود داشته باشد. همچنین باید امکان کنترل محصولات هوش مصنوعی توسط اپراتور انسانی و با استفاده از ابزار یا سوئیچ خاص وجود داشته باشد.

تازه ترین ها
آسیب
1404/06/18 - 13:59- سایرفناوری ها

آسیب فضای ابری مایکروسافت در پی قطعی کابل دریای سرخ

قطع کابل دریای سرخ، آسیب به فضای ابری مایکروسافت را به دنبال داشت.

نشست
1404/06/18 - 12:50- آسیا

نشست همکاری کوانتومی در سئول و توکیو

ایالات متحده، ژاپن و کره جنوبی این هفته دو نشست همکاری سه‌جانبه کوانتومی در سئول و توکیو برگزار کردند.

تلاش
1404/06/18 - 11:49- سایرفناوری ها

تلاش برای ساخت حداقل 20 کارخانه مجهز به 5G در چین

پکن در تلاش است تا سال 2027 حداقل 20 کارخانه مجهز به 5G تأسیس کند.