about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تأثیر
1404/11/23 - 17:54- سایرفناوری ها

تأثیر کمبود تراشه‌های حافظه بر عرضه رایانه‌های شخصی

گروه لنوو چین در مورد افزایش فشار بر عرضه رایانه‌های شخصی به دلیل کمبود فزاینده تراشه‌های حافظه هشدار داد.

آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

انتشار شده در تاریخ

مقابله با تبعیض نژادی هوش های مصنوعی توسط IBM

شرکت IBM به منظور مقابله با تبعیض نژادی ایجاد شده توسط هوش‌های مصنوعی و سامانه‌های تشخیص چهره، مجموعه‌ی جدیدی از داده‌ها را منتشر کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «cbronline»؛ در حال حاضر از فناوری هوش مصنوعی در زمینه‌های فراوانی مانند تشخیص چهره استفاده می‌شود. با وجود این، بسیاری از متخصصان اعلام کردند که این دستاوردها، به تبعیض نژادی دامن می‌زنند و مشکلات چندانی را به وجود می‌آورند.

برای مثال، سامانه تشخیص چهره آمازون، در بسیاری از موارد، زنان سیاه‌پوست را به عنوان مرد در نظر می‌گیرد و همین موضوع مشکلاتی را برای آن‌ها به وجود آورده است.

شرکت IBM به تازگی مجموعه‌ای از داده‌ها را به نام «دایورسیتی» (Diversity in Faces) منتشر کرد. این شرکت امیدوار است بتواند به توسعه‌دهندگان کمک کند، چالش تبعیض در رنگ پوست و شناسایی جنسیت نرم‌افزارهای تشخیص چهره را برطرف سازند.

دایورسیتی مجموعه‌ای از یک‌ میلیون عکس است که به صورت عمومی در دسترس قرار دارند. این عکس‌ها، با استفاده از 10 الگوی مختلف کدگذاری شده، برچسب‌هایی در رابطه با جنسیت و سن افراد دریافت کردند.

در گذشته، آموزش سیستم‌های تشخیص چهره روی جنسیت، سن و رنگ پوست متمرکز بود؛ اما این ویژگی‌ها، برای پوشش طیف کامل تنوع انسان‌ها کافی به نظر نمی‌رسند. به همین منظور، مجموعه‌ داده‌هایی با 10 طبقه‌بندی مختلف از صورت، مانند تقارن، کنتراست و استخوان‌بندی چهره آماده شد.

در سال گذشته، پژوهشگران MIT متوجه شدند که نرم‌افزارهای تحلیل چهره، زنان سیاه‌پوست را در 34.7 درصد مواقع اشتباه تشخیص می‌دهند. این رقم، در رابطه با مردان سفیدپوست 0.8 درصد است. این آمار، نگرانی‌هایی را نسبت به افزایش میزان خطا توسط هوش‌های مصنوعی افزایش می‌دهد.

البته باید درنظر گرفت که الگوریتم‌های رایانه‌ای، به خودی خود از تعصبات نژادی بهره نمی‌برند و این مسئله، به طراحان آن بستگی دارد. این بسترها، با بهره‌گیری از داده‌هایی که به آن‌ها تزریق می‌شوند، آموزش می‌بینند و هر چه این اطلاعات متنوع‌تر باشد، عملکرد نهایی نیز دقیق‌تر است. با وجود این، یک متخصص ممکن است تنها دسته‌ی خاصی را از تصاویر برای آموزش دستگاه تشخیص چهره‌ی خود به کار ببرد.

تازه ترین ها
تشدید
1404/11/29 - 15:50- آسیا

تشدید حملات سایبری در هند همزمان با رشد هوش مصنوعی

هند با ۳۱۰۰ حمله سایبری هفتگی مواجه است و بخش آموزش در بحبوحه افزایش هوش مصنوعی بیشترین آسیب را دیده است.

بازجویی مدیرعامل متا در دادگاه آمریکا

مارک زاکربرگ، مدیرعامل متا برای اولین‌بار در دادگاه ایالات متحده در مورد تأثیر اینستاگرام بر سلامت روان کاربران جوان مورد بازجویی قرار می‌گیرد.

رونمایی
1404/11/29 - 15:07- هوش مصنوعي

رونمایی از مدل‌های هوش مصنوعی چین پیش از سال نو قمری

چین با رونمایی از مدل‌های بزرگ پیش از سال نو قمری، رهبری خود در حوزه هوش مصنوعی را تقویت می‌کند.