about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

تبعیض نژادی سامانه تشخیص چهره آمازون

عده‌ای از پژوهشگران و مدافعان حریم خصوصی توضیح دادند که سیستم تشخیص چهره‌ی آمازون با توجه به داشتن خصوصیت تبعیض نژادی، باید متوقف گردد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «techxplore»؛ به گفته‌ی محققان دانشگاه‌های MIT و تورنتو، سامانه تشخیص چهره‌ی آمازون که با هدف بازاریابی و اجرای قانون، توسعه پیدا کرده بود، بیشتر زنان و به خصوص تیره پوستان را به اشتباه تشخیص داده، تبعیض قائل می‌شود.

مدافعان حقوق مدنی و حریم خصوصی به تازگی از آمازون درخواست کرده‌اند که خدمات تشخیص چهره خود را متوقف کند؛ زیرا این فناوری، در زمینه شناسایی اقلیت‌ها تبعیض قائل می‌شود. تعدادی از سرمایه‌گذاران آمازون نیز درخواستی مشابه دارند؛ زیرا نگران هستند این دستاورد در بررسی پرونده‌های قضایی آسیب‌پذیری ایجاد مي‌کند.

محققان شرح دادند:

هوش مصنوعی آمازون در 31 درصد مواقع زنان تیره پوست را به اشتباه مرد در نظر می‌گیرد. این مسئله درباره زنانی با پوست روشن 7 درصد است. خطای رخ‌داده در مورد مردان سیاه‌پوست، یا دارنده پوست روشن نیز به ترتیب یک درصد و بدون خطا است.

با وجود این که گفته می‌شود هوش‌های مصنوعی، از تعصبات انسانی بی‌بهره‌اند؛ اما در هر صورت توسط دانشمندانی ساخته می‌شوند که هر یک عقاید خاص خود را دارند و آن‌ها را وارد برنامه نیز می‌کنند. مشكل پديدآمده نشان‌دهنده تهدیدی برای حریم خصوصی و آزادی‌های مدنی است که توسط فناوری تشخیص چهره به وجود می‌آید.

جوی بولاموینی (Joy Buolamwini)، یکی از پژوهشگران MIT به دنبال اتفاق رخ‌داده اظهار کرد:

شرکت‌ها باید همه‌ی سیستم‌های خود را که برای تشخیص چهره به کار می‌گيرند، به منظور وجود، یا عدم وجود تعصب و تبعیض بررسی کنند.

وی ادامه داد:

اگر شما سیستم تشخیص چهره‌ای را به فروش می‌رسانید که تعصب دارد، ممكن است که دیگر محصولاتتان هم، در این رده به طور کامل تبعیض قائل شوند.

تازه ترین ها
کمک
1404/02/13 - 07:55- سایرفناوری ها

کمک حقوقی مرکز ملی فضای مجازی به دستگاه‌ها برای تکمیل سند راهبردی

معاون حقوقی مرکز ملی فضای مجازی گفت: مهم‌ترین مسئله در اجرای اسناد راهبردی، ضمانت اجرایی آنهاست؛ به همین دلیل این ضمانت در سه ساحت پیش‌بینی شده است.

تحول‌آفرینی
1404/02/13 - 07:50- هوش مصنوعي

تحول‌آفرینی هوش مصنوعی نیازمند سیاست‌گذاری هوشمندانه است

دیبر سابق شورای عالی فضای مجازی با اشاره به پیامدهای گسترده فناوری‌های نوین بر ساختارهای اجتماعی، بر لزوم سرمایه‌گذاری کلان، تقویت زیرساخت‌های داده‌ای و ایجاد نهاد راهبردی برای حکمرانی هوش مصنوعی تأکید کرد .

ایجاد
1404/02/13 - 07:46- آسیا

ایجاد مرکز کوانتومی در امارات

شرکت نورما قصد دارد با هدف حمایت از رشد هوش مصنوعی و امنیت سایبری، یک مرکز تحقیق و توسعه کوانتومی در امارات متحده عربی بسازد.