about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

مقابله با تبعیض نژادی هوش های مصنوعی توسط IBM

شرکت IBM به منظور مقابله با تبعیض نژادی ایجاد شده توسط هوش‌های مصنوعی و سامانه‌های تشخیص چهره، مجموعه‌ی جدیدی از داده‌ها را منتشر کرد.

به گزارش کارگروه فناوری اطلاعات سایبربان، به نقل از «cbronline»؛ در حال حاضر از فناوری هوش مصنوعی در زمینه‌های فراوانی مانند تشخیص چهره استفاده می‌شود. با وجود این، بسیاری از متخصصان اعلام کردند که این دستاوردها، به تبعیض نژادی دامن می‌زنند و مشکلات چندانی را به وجود می‌آورند.

برای مثال، سامانه تشخیص چهره آمازون، در بسیاری از موارد، زنان سیاه‌پوست را به عنوان مرد در نظر می‌گیرد و همین موضوع مشکلاتی را برای آن‌ها به وجود آورده است.

شرکت IBM به تازگی مجموعه‌ای از داده‌ها را به نام «دایورسیتی» (Diversity in Faces) منتشر کرد. این شرکت امیدوار است بتواند به توسعه‌دهندگان کمک کند، چالش تبعیض در رنگ پوست و شناسایی جنسیت نرم‌افزارهای تشخیص چهره را برطرف سازند.

دایورسیتی مجموعه‌ای از یک‌ میلیون عکس است که به صورت عمومی در دسترس قرار دارند. این عکس‌ها، با استفاده از 10 الگوی مختلف کدگذاری شده، برچسب‌هایی در رابطه با جنسیت و سن افراد دریافت کردند.

در گذشته، آموزش سیستم‌های تشخیص چهره روی جنسیت، سن و رنگ پوست متمرکز بود؛ اما این ویژگی‌ها، برای پوشش طیف کامل تنوع انسان‌ها کافی به نظر نمی‌رسند. به همین منظور، مجموعه‌ داده‌هایی با 10 طبقه‌بندی مختلف از صورت، مانند تقارن، کنتراست و استخوان‌بندی چهره آماده شد.

در سال گذشته، پژوهشگران MIT متوجه شدند که نرم‌افزارهای تحلیل چهره، زنان سیاه‌پوست را در 34.7 درصد مواقع اشتباه تشخیص می‌دهند. این رقم، در رابطه با مردان سفیدپوست 0.8 درصد است. این آمار، نگرانی‌هایی را نسبت به افزایش میزان خطا توسط هوش‌های مصنوعی افزایش می‌دهد.

البته باید درنظر گرفت که الگوریتم‌های رایانه‌ای، به خودی خود از تعصبات نژادی بهره نمی‌برند و این مسئله، به طراحان آن بستگی دارد. این بسترها، با بهره‌گیری از داده‌هایی که به آن‌ها تزریق می‌شوند، آموزش می‌بینند و هر چه این اطلاعات متنوع‌تر باشد، عملکرد نهایی نیز دقیق‌تر است. با وجود این، یک متخصص ممکن است تنها دسته‌ی خاصی را از تصاویر برای آموزش دستگاه تشخیص چهره‌ی خود به کار ببرد.

تازه ترین ها
مارک
1404/02/13 - 07:40- هوش مصنوعي

مارک زاکربرگ: تبلیغات آینده بدون نیاز به آژانس‌ها با هوش مصنوعی ساخته می‌شود

مدیرعامل متا با تبلیغ قابلیت‌های هوش مصنوعی در زمینه تبلیغات، به‌طور علنی به جنگ با تیم‌های خلاق تبلیغاتی رفت.

هشدار
1404/02/13 - 07:34- سایرفناوری ها

هشدار کارشناسان نسبت به اعتماد صددرصدی به نتایج هوش مصنوعی

یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط هوش مصنوعی مانند چت‌جی‌پی‌تی، جمنای و کوپایلوت را بررسی می‌کنند. کارشناسان درباره خطرات احتمالی اعتماد به هوش مصنوعی هشدار می‌دهند.

حمله
1404/02/13 - 07:29- جرم سایبری

حمله هکری به گوشی‌های آیفون در ۱۰۰ کشور

اپل برای قربانیان حملات هکری به گوشی‌های آیفون در ۱۰۰ کشور جهان پیام‌های هشدار ارسال کرده است.