about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

انتشار شده در تاریخ

مقابله با تبعیض نژادی هوش های مصنوعی توسط IBM

شرکت IBM به منظور مقابله با تبعیض نژادی ایجاد شده توسط هوش‌های مصنوعی و سامانه‌های تشخیص چهره، مجموعه‌ی جدیدی از داده‌ها را منتشر کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «cbronline»؛ در حال حاضر از فناوری هوش مصنوعی در زمینه‌های فراوانی مانند تشخیص چهره استفاده می‌شود. با وجود این، بسیاری از متخصصان اعلام کردند که این دستاوردها، به تبعیض نژادی دامن می‌زنند و مشکلات چندانی را به وجود می‌آورند.

برای مثال، سامانه تشخیص چهره آمازون، در بسیاری از موارد، زنان سیاه‌پوست را به عنوان مرد در نظر می‌گیرد و همین موضوع مشکلاتی را برای آن‌ها به وجود آورده است.

شرکت IBM به تازگی مجموعه‌ای از داده‌ها را به نام «دایورسیتی» (Diversity in Faces) منتشر کرد. این شرکت امیدوار است بتواند به توسعه‌دهندگان کمک کند، چالش تبعیض در رنگ پوست و شناسایی جنسیت نرم‌افزارهای تشخیص چهره را برطرف سازند.

دایورسیتی مجموعه‌ای از یک‌ میلیون عکس است که به صورت عمومی در دسترس قرار دارند. این عکس‌ها، با استفاده از 10 الگوی مختلف کدگذاری شده، برچسب‌هایی در رابطه با جنسیت و سن افراد دریافت کردند.

در گذشته، آموزش سیستم‌های تشخیص چهره روی جنسیت، سن و رنگ پوست متمرکز بود؛ اما این ویژگی‌ها، برای پوشش طیف کامل تنوع انسان‌ها کافی به نظر نمی‌رسند. به همین منظور، مجموعه‌ داده‌هایی با 10 طبقه‌بندی مختلف از صورت، مانند تقارن، کنتراست و استخوان‌بندی چهره آماده شد.

در سال گذشته، پژوهشگران MIT متوجه شدند که نرم‌افزارهای تحلیل چهره، زنان سیاه‌پوست را در 34.7 درصد مواقع اشتباه تشخیص می‌دهند. این رقم، در رابطه با مردان سفیدپوست 0.8 درصد است. این آمار، نگرانی‌هایی را نسبت به افزایش میزان خطا توسط هوش‌های مصنوعی افزایش می‌دهد.

البته باید درنظر گرفت که الگوریتم‌های رایانه‌ای، به خودی خود از تعصبات نژادی بهره نمی‌برند و این مسئله، به طراحان آن بستگی دارد. این بسترها، با بهره‌گیری از داده‌هایی که به آن‌ها تزریق می‌شوند، آموزش می‌بینند و هر چه این اطلاعات متنوع‌تر باشد، عملکرد نهایی نیز دقیق‌تر است. با وجود این، یک متخصص ممکن است تنها دسته‌ی خاصی را از تصاویر برای آموزش دستگاه تشخیص چهره‌ی خود به کار ببرد.

تازه ترین ها
تسریع
1404/09/15 - 17:35- هوش مصنوعي

تسریع جرایم سایبری به کمک هوش مصنوعی در سال 2026

شرکت امنیت سایبری فورتی‌نت پیش‌بینی کرد که در سال 2026 هوش مصنوعی، جرایم سایبری را تسریع می‌کند.

هشدار
1404/09/15 - 17:15- امنیت شبکه

هشدار اَپل و گوگل به کاربران درمورد تهدیدات سایبری

اَپل و گوگل در مورد تهدیدات سایبری به کاربران در بیش از ۱۵۰ کشور اعلان ارسال کردند.

خطرات
1404/09/15 - 16:30- آمریکا

خطرات جدید هوش مصنوعی برای فناوری عملیاتی

آژانس امنیت ملی آمریکا هشدار می‌دهد که هوش مصنوعی خطرات جدیدی را برای فناوری عملیاتی ایجاد می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.