about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

ارزیابی متهمین توسط هوش مصنوعی

به گزارش واحد فناوری اطلاعات سایبربان؛ این سیستم که «هارت» (Hart) به معنای «ابزار ارزیابی ریسک آسیب رسانی» نام دارد، افراد بازداشت شده را به سه دسته کم خطر، خطرناک یا بسیار خطرناک تقسیم می کند تا احتمال ارتکاب جرم آنها را در آینده نشان دهد. نیروی پلیس انگلستان طی چند ماه آینده این سیستم را تست کرده و نتایج پیش بینی آن را با نظر متخصصین و پیامدهای بعدی تصمیم آنها مقایسه خواهد کرد.
ارزیابی هوش مصنوعی را می توان در موارد مختلفی به کار برد، مثلاً اینکه آیا نیاز به بازداشت طولانی تر فرد وجود دارد، یا اینکه قبل یا بعد از صدور حکم می توان آنها را به قید ضمانت آزاد نمود یا خیر. برای توسعه سیستم تصمیم گیری هارت از داده های نیروی پلیس دورام مربوط به سال های 2008 تا 2013 استفاده شده، که مواردی همچون سابقه جرم، شدت جرم کنونی، و حضور متهم در لیست منع پرواز را در بر می گیرد.
در تست های اولیه در سال 2013 که رفتار متهم تا 2 سال پس از ارتکاب جرم مورد ارزیابی قرار گرفت، مشخص شد که پیش بینی هارت برای دسته کم خطر در 99 درصد موارد صحیح است و دقت پیش بینی در موارد بسیار خطرناک هم به 88 درصد می رسد.
هارت را می‌توان یکی از مجموعه ابزارهای نرم افزاری متعدد نیروهای انتظامی در سرتاسر جهان دانست که به سبک الگوریتمی به پیش بینی رفتار انسان پرداخته و به کمک سیستم قضایی می آیند. اگرچه استفاده از چنین سامانه هایی می تواند کار پلیس را ساده کند، اما در بسیاری از موارد نمی توان به قضاوت آن‌ها اکتفا کرد.
متأسفانه سیستم های هوش مصنوعی هم با استفاده از داده های تبعیض آمیز انسانی آموزش می بینند.
سال گذشته ProPublica در تحقیقی جامع نشان داد ابزارهای سنجش ریسک به شدت ناکارآمد هستند، و جهت گیری و تبعیض انسانی در روند آموزش هوش مصنوعی در آن ریشه می دواند؛ مثلاً سیاه پوستان تا دو برابر بیشتر در دسته مجرمان آینده قرار می گیرند، یا سفیدپوستان عمدتاً در دسته کم خطر قرار داده میشوند. سیستم های الگوریتمی متعدد دیگری همچون مواردی که توسط فیسبوک، گوگل و دیگر کمپانی های فناوری به کار گرفته می شوند نیز از نقایص مشابهی رنج می برند و سوگیری در آنها دیده می شود، چون در مرحله اول برای آموزش سیستم از داده های انسانی استفاده شده است.

گفتنی است اداره پلیس دورام تأکید می‌کند که نظر سیستم هارت صرفاً به‌عنوان پیشنهاد در نظر گرفته می‌شود و تصمیم‌گیری نهایی بر عهده متخصصین خواهد بود، بااین‌حال احتمال تأثیرگذاری خروجی هوش مصنوعی بر روند اتخاذ تصمیم کارشناسان نیز وجود دارد.

 

تازه ترین ها
آمریکا
1404/02/13 - 15:31- آمریکا

آمریکا به دنبال قطع نقش‌آفرینی صنعت جرایم سایبری جنوب‌شرق آسیا

وزارت خزانه‌داری ایالات متحده، گروه هوی‌وان مستقر در کامبوج را به‌عنوان یک نهاد دارای نگرانی اصلی در زمینه پول‌شویی معرفی کرده و پیشنهاد داده است که دسترسی این گروه به نظام مالی آمریکا قطع شود.

تحویل
1404/02/13 - 15:21- جرم سایبری

تحویل مظنون حملات باج‌افزاری نتفیلیم از اسپانیا به ایالات متحده

دادستان‌های فدرال روز پنج‌شنبه اعلام کردند که یک شهروند اوکراینی به اتهام استفاده از باج‌افزار نتفیلیم برای حمله به شرکت‌های بزرگ در ایالات متحده و سایر کشورها، به آمریکا تحویل داده شده است.

جریمه
1404/02/13 - 15:14- آمریکا

جریمه ۸.۴ میلیون دلاری برای پیمانکاران دفاعی آمریکا

دو شرکت پیمانکار دفاعی ایالات متحده، ریتیون و گروه نایت‌وینگ، موافقت کردند که برای حل‌وفصل اتهاماتی مبنی بر نقض مفاد قرارداد با وزارت دفاع، مبلغ ۸.۴ میلیون دلار به دولت پرداخت کنند.