about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار درباره خلأ سواد رسانه‌ای در نهادهای رسمی

در روزهای اخیر با توجه به پخش برخی تصاویر از مقرهای نظامی در صدا و سیما باید خاطرنشان شویم که انتشار برخی ویدئوها می‌تواند جنگ روایت‌ها را علیه ایران تغییر دهد.

انتشار شده در تاریخ

ارزیابی متهمین توسط هوش مصنوعی

به گزارش واحد فناوری اطلاعات سایبربان؛ این سیستم که «هارت» (Hart) به معنای «ابزار ارزیابی ریسک آسیب رسانی» نام دارد، افراد بازداشت شده را به سه دسته کم خطر، خطرناک یا بسیار خطرناک تقسیم می کند تا احتمال ارتکاب جرم آنها را در آینده نشان دهد. نیروی پلیس انگلستان طی چند ماه آینده این سیستم را تست کرده و نتایج پیش بینی آن را با نظر متخصصین و پیامدهای بعدی تصمیم آنها مقایسه خواهد کرد.
ارزیابی هوش مصنوعی را می توان در موارد مختلفی به کار برد، مثلاً اینکه آیا نیاز به بازداشت طولانی تر فرد وجود دارد، یا اینکه قبل یا بعد از صدور حکم می توان آنها را به قید ضمانت آزاد نمود یا خیر. برای توسعه سیستم تصمیم گیری هارت از داده های نیروی پلیس دورام مربوط به سال های 2008 تا 2013 استفاده شده، که مواردی همچون سابقه جرم، شدت جرم کنونی، و حضور متهم در لیست منع پرواز را در بر می گیرد.
در تست های اولیه در سال 2013 که رفتار متهم تا 2 سال پس از ارتکاب جرم مورد ارزیابی قرار گرفت، مشخص شد که پیش بینی هارت برای دسته کم خطر در 99 درصد موارد صحیح است و دقت پیش بینی در موارد بسیار خطرناک هم به 88 درصد می رسد.
هارت را می‌توان یکی از مجموعه ابزارهای نرم افزاری متعدد نیروهای انتظامی در سرتاسر جهان دانست که به سبک الگوریتمی به پیش بینی رفتار انسان پرداخته و به کمک سیستم قضایی می آیند. اگرچه استفاده از چنین سامانه هایی می تواند کار پلیس را ساده کند، اما در بسیاری از موارد نمی توان به قضاوت آن‌ها اکتفا کرد.
متأسفانه سیستم های هوش مصنوعی هم با استفاده از داده های تبعیض آمیز انسانی آموزش می بینند.
سال گذشته ProPublica در تحقیقی جامع نشان داد ابزارهای سنجش ریسک به شدت ناکارآمد هستند، و جهت گیری و تبعیض انسانی در روند آموزش هوش مصنوعی در آن ریشه می دواند؛ مثلاً سیاه پوستان تا دو برابر بیشتر در دسته مجرمان آینده قرار می گیرند، یا سفیدپوستان عمدتاً در دسته کم خطر قرار داده میشوند. سیستم های الگوریتمی متعدد دیگری همچون مواردی که توسط فیسبوک، گوگل و دیگر کمپانی های فناوری به کار گرفته می شوند نیز از نقایص مشابهی رنج می برند و سوگیری در آنها دیده می شود، چون در مرحله اول برای آموزش سیستم از داده های انسانی استفاده شده است.

گفتنی است اداره پلیس دورام تأکید می‌کند که نظر سیستم هارت صرفاً به‌عنوان پیشنهاد در نظر گرفته می‌شود و تصمیم‌گیری نهایی بر عهده متخصصین خواهد بود، بااین‌حال احتمال تأثیرگذاری خروجی هوش مصنوعی بر روند اتخاذ تصمیم کارشناسان نیز وجود دارد.

 

تازه ترین ها
افتتاح
1404/11/09 - 14:43- هوش مصنوعي

افتتاح پردیس بین‌المللی هوش مصنوعی در دبی

یک مدرسه هوش مصنوعی و کدنویسی مستقر در بریتانیا قصد دارد یک پردیس بین‌المللی در دبی افتتاح کند.

ارائه
1404/11/09 - 14:22- سایرفناوری ها

ارائه ویژگی‌های محافظتی در برابر سرقت توسط اندروید

اندروید در حال ارائه ویژگی‌های محافظتی در برابر سرقت باهدف کاهش کلاهبرداری مالی و محافظت از داده‌های شخصی است.

حمایت
1404/11/09 - 14:21- آمریکا

حمایت کمیسیون تجارت فدرال از احراز هویت سنی آنلاین

یکی از کمیسرهای کمیسیون تجارت فدرال آمریکا می‌گوید احراز هویت سنی در فضای آنلاین می‌تواند راهی مؤثر برای حفاظت از کودکان باشد، بدون آنکه نوآوری یا نقش والدین را تضعیف کند.