about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

تأثیر
1404/11/23 - 17:54- سایرفناوری ها

تأثیر کمبود تراشه‌های حافظه بر عرضه رایانه‌های شخصی

گروه لنوو چین در مورد افزایش فشار بر عرضه رایانه‌های شخصی به دلیل کمبود فزاینده تراشه‌های حافظه هشدار داد.

انتشار شده در تاریخ

مقابله با تبعیض نژادی هوش های مصنوعی توسط IBM

شرکت IBM به منظور مقابله با تبعیض نژادی ایجاد شده توسط هوش‌های مصنوعی و سامانه‌های تشخیص چهره، مجموعه‌ی جدیدی از داده‌ها را منتشر کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «cbronline»؛ در حال حاضر از فناوری هوش مصنوعی در زمینه‌های فراوانی مانند تشخیص چهره استفاده می‌شود. با وجود این، بسیاری از متخصصان اعلام کردند که این دستاوردها، به تبعیض نژادی دامن می‌زنند و مشکلات چندانی را به وجود می‌آورند.

برای مثال، سامانه تشخیص چهره آمازون، در بسیاری از موارد، زنان سیاه‌پوست را به عنوان مرد در نظر می‌گیرد و همین موضوع مشکلاتی را برای آن‌ها به وجود آورده است.

شرکت IBM به تازگی مجموعه‌ای از داده‌ها را به نام «دایورسیتی» (Diversity in Faces) منتشر کرد. این شرکت امیدوار است بتواند به توسعه‌دهندگان کمک کند، چالش تبعیض در رنگ پوست و شناسایی جنسیت نرم‌افزارهای تشخیص چهره را برطرف سازند.

دایورسیتی مجموعه‌ای از یک‌ میلیون عکس است که به صورت عمومی در دسترس قرار دارند. این عکس‌ها، با استفاده از 10 الگوی مختلف کدگذاری شده، برچسب‌هایی در رابطه با جنسیت و سن افراد دریافت کردند.

در گذشته، آموزش سیستم‌های تشخیص چهره روی جنسیت، سن و رنگ پوست متمرکز بود؛ اما این ویژگی‌ها، برای پوشش طیف کامل تنوع انسان‌ها کافی به نظر نمی‌رسند. به همین منظور، مجموعه‌ داده‌هایی با 10 طبقه‌بندی مختلف از صورت، مانند تقارن، کنتراست و استخوان‌بندی چهره آماده شد.

در سال گذشته، پژوهشگران MIT متوجه شدند که نرم‌افزارهای تحلیل چهره، زنان سیاه‌پوست را در 34.7 درصد مواقع اشتباه تشخیص می‌دهند. این رقم، در رابطه با مردان سفیدپوست 0.8 درصد است. این آمار، نگرانی‌هایی را نسبت به افزایش میزان خطا توسط هوش‌های مصنوعی افزایش می‌دهد.

البته باید درنظر گرفت که الگوریتم‌های رایانه‌ای، به خودی خود از تعصبات نژادی بهره نمی‌برند و این مسئله، به طراحان آن بستگی دارد. این بسترها، با بهره‌گیری از داده‌هایی که به آن‌ها تزریق می‌شوند، آموزش می‌بینند و هر چه این اطلاعات متنوع‌تر باشد، عملکرد نهایی نیز دقیق‌تر است. با وجود این، یک متخصص ممکن است تنها دسته‌ی خاصی را از تصاویر برای آموزش دستگاه تشخیص چهره‌ی خود به کار ببرد.

تازه ترین ها
جریمه
1404/12/06 - 14:22- سایرفناوری ها

جریمه گوگل توسط روسیه به علت توزیع وی‌پی‌ان

روسیه گوگل را به دلیل توزیع خدمات وی‌پی‌ان جریمه کرد.

هشدار
1404/12/06 - 14:01- هوش مصنوعي

هشدار نهادهای نظارتی در مورد تصاویر هوش مصنوعی

مقامات حفاظت از داده‌ها، هشدار مشترکی در مورد خطرات مرتبط با تصاویر تولید شده توسط هوش مصنوعی صادر کرده‌اند.

استفاده
1404/12/06 - 13:40- هوش مصنوعي

استفاده فزاینده‌ مهاجمان سایبری از هوش مصنوعی

طبق گزارش شرکت کرود اِسترایک، مهاجمان سایبری در سال ۲۰۲۵ به طور فزاینده‌ای از هوش مصنوعی استفاده کردند.