about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

انتشار شده در تاریخ

مقابله با تبعیض نژادی هوش های مصنوعی توسط IBM

شرکت IBM به منظور مقابله با تبعیض نژادی ایجاد شده توسط هوش‌های مصنوعی و سامانه‌های تشخیص چهره، مجموعه‌ی جدیدی از داده‌ها را منتشر کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «cbronline»؛ در حال حاضر از فناوری هوش مصنوعی در زمینه‌های فراوانی مانند تشخیص چهره استفاده می‌شود. با وجود این، بسیاری از متخصصان اعلام کردند که این دستاوردها، به تبعیض نژادی دامن می‌زنند و مشکلات چندانی را به وجود می‌آورند.

برای مثال، سامانه تشخیص چهره آمازون، در بسیاری از موارد، زنان سیاه‌پوست را به عنوان مرد در نظر می‌گیرد و همین موضوع مشکلاتی را برای آن‌ها به وجود آورده است.

شرکت IBM به تازگی مجموعه‌ای از داده‌ها را به نام «دایورسیتی» (Diversity in Faces) منتشر کرد. این شرکت امیدوار است بتواند به توسعه‌دهندگان کمک کند، چالش تبعیض در رنگ پوست و شناسایی جنسیت نرم‌افزارهای تشخیص چهره را برطرف سازند.

دایورسیتی مجموعه‌ای از یک‌ میلیون عکس است که به صورت عمومی در دسترس قرار دارند. این عکس‌ها، با استفاده از 10 الگوی مختلف کدگذاری شده، برچسب‌هایی در رابطه با جنسیت و سن افراد دریافت کردند.

در گذشته، آموزش سیستم‌های تشخیص چهره روی جنسیت، سن و رنگ پوست متمرکز بود؛ اما این ویژگی‌ها، برای پوشش طیف کامل تنوع انسان‌ها کافی به نظر نمی‌رسند. به همین منظور، مجموعه‌ داده‌هایی با 10 طبقه‌بندی مختلف از صورت، مانند تقارن، کنتراست و استخوان‌بندی چهره آماده شد.

در سال گذشته، پژوهشگران MIT متوجه شدند که نرم‌افزارهای تحلیل چهره، زنان سیاه‌پوست را در 34.7 درصد مواقع اشتباه تشخیص می‌دهند. این رقم، در رابطه با مردان سفیدپوست 0.8 درصد است. این آمار، نگرانی‌هایی را نسبت به افزایش میزان خطا توسط هوش‌های مصنوعی افزایش می‌دهد.

البته باید درنظر گرفت که الگوریتم‌های رایانه‌ای، به خودی خود از تعصبات نژادی بهره نمی‌برند و این مسئله، به طراحان آن بستگی دارد. این بسترها، با بهره‌گیری از داده‌هایی که به آن‌ها تزریق می‌شوند، آموزش می‌بینند و هر چه این اطلاعات متنوع‌تر باشد، عملکرد نهایی نیز دقیق‌تر است. با وجود این، یک متخصص ممکن است تنها دسته‌ی خاصی را از تصاویر برای آموزش دستگاه تشخیص چهره‌ی خود به کار ببرد.

تازه ترین ها
حمله
1404/09/05 - 14:58- جرم سایبری

حمله سایبری به سیستم هشدار اضطراری واشنگتن

اداره کلانتر واشنگتن اعلام کرده است که به‌دنبال حملات سایبری و سرقت‌های داده در سراسر کشور، در حال کنار گذاشتن سیستم اضطراری کد قرمز است.

مواجهه
1404/09/05 - 14:49- اروپا

مواجهه نهاد ناظر بر حریم خصوصی در بریتانیا با سقوط در فعالیت‌های اجرایی

بیش از ۷۰ گروه مدافع آزادی‌های مدنی، پژوهشگر و کارشناس حقوقی خواستار بررسی «سقوط فعالیت‌های اجرایی» در نهاد اصلی تنظیم مقررات حفاظت از داده در بریتانیا شده‌اند.

هشدار
1404/09/05 - 14:28- جرم سایبری

هشدار نهاد ثبت اسناد دادگاهی درباره اختلالات پس از حمله باج‌افزاری

سازمانی که مسئول مدیریت ثبت اسناد املاک و ثبت پرونده‌های مدنی در ایالت جورجیا است، بر اثر یک حمله سایبری که از روز جمعه آغاز شده، از دسترس خارج شده است.