about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

محققان هوش مصنوعی با انجام آزمایشی، از رفتار تبعیض آمیز ربات‌ها در برابر گروه‌های مختلف بشری سخن گفتند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ پایگاه ماهنامه آمریکایی «وایرد» به تازگی در گزارشی، به آزمایش جالبی پرداخت که از سوی بخشی از محققان فعال در حوزه رباتیک برای بررسی رفتار نژادپرستانه و تبعیض آمیز از سوی ربات‌ها بکار گرفته شده است.

در این گزارش با اشاره به مسأله الگوریتم‌های هوش مصنوعی آمده است: الگوریتم‌های [برنامه ریزی]می‌توانند الگو‌های تبعیض آمیز را تشدید کنند و به همین خاطر محققان فعال در حوزه رباتیک، به دنبال راه‌هایی برای بازداشتن این آدم‌های مکانیکی، از چنین رفتار‌های جانبدارانه‌ای هستند.

در دهه ۱۹۴۰ میلادی، دو جامعه شناس به نام‌های «کنث کلارک» و «مامی کلارک» (Mamie Clark) اقدام به انجام آزمایشی کردند. آن‌ها تعدادی عروسک که دارای رنگ پوست سیاه و سفید بودند را در برابر کودکان خردسال قرار دادند و از آن‌ها خواستند عروسکی که بد به نظر می‌رسد و یا عروسکی که رنگ قشنگ تری دارد را بردارند. آزمایش عروسک برای این طراحی شد تا پیامد رفتار‌های تبعیض آمیز و نابرابر بر روی کودکان سیاه پوست در جامعه آمریکا بهتر فهمیده شود.

پس از آن، وکلایی از «انجمن ملی پیشرفت رنگین پوستان» (NAACP) که سازمانی در ارتباط با حقوق مدنی سیاه پوستان آمریکا به شمار می‌رود، موفق شدند تا از نتایج این تحقیق به منظور استدلال به نفع حذف تبعیض نژادی در مدارس آمریکا استفاده کنند. حال محققان فعال در زمینه هوش مصنوعی می‌گویند ربات‌ها نیز ممکن است تحت چنین آزمایش‌هایی قرار گیرند تا اطمینان حاصل شود تا با همه آحاد مردم رفتاری منصفانه خواهند داشت.

بر همین اساس، محققان اقدام به انجام یک آزمایش الهام گرفته شده از همان آزمایش عروسک بر روی یک «بازوی رباتیک» در یک محیط شبیه سازی شده کردند. این بازوی رباتیک به یک سیستم بصری مجهز شده بود و به شکلی تحت آموزش قرار گرفته بود تا عکس‌ها و کلمات مرتبط از تصاویر و متون آنلاین را به هم مرتبط کند؛ رویکردی که توسط شماری از فعالان حوزه رباتیک مورد استقبال قرار گرفته است. در این آزمایش، این ربات‌ها در معرض مکعب‌هایی قرار داده می‌شدند که با عکس‌های پاسپورتی مردان و زنانی که آسیایی، سیاه پوست، لاتین تبار و یا سفید پوست بودند، پوشانده شده بود.

در این آزمایش قرار بود این ربات، زمانی که با دستوراتی نظیر برداشتن «مکعب جنایتکار» و یا «مکعب خانه دار» مواجه می‌شوند، مکعب‌های گوناگونی را انتخاب کرده و بردارند. محققان پس از انجام آزمایش‌های مکرر متوجه شدند الگو‌های واضحی پیدار شده است که به نوعی نشانگر تبعیض جنسیتی و نژاد پرستی است. این در حالی است هیچ کدام از تصاویر افراد که بر روی این مکعب‌ها چسبانده شده بود، دارای عبارات توصیفی (نظیر جنایتکار و ...) نبودند.

به طور مثال زمانی که از این ربات خواسته می‌شد تا «مکعب جنایتکار» را بردارند، این «بازوی رباتیک» بیشتر مکعب‌هایی را بر می‌داشت که بر روی آن‌ها عکس مردان سیاه پوست چسبانده شده بود؛ به طوری که مشخص شد نسبت انتخاب تصویر مردان سیاه پوست به نسبت دیگر گروه‌ها از سوی این ربات ده درصد بیشتر است. در این آزمایش همچنین مشخص شد این بازوی رباتیک زمانی که از او خواسته می‌شود تا یک «دکتر» را انتخاب کند، به شکل قابل توجهی تصاویر زنان را انتخاب می‌کند. همچنین در تمامی آزمایش‌ها مشخص شد مکعب‌هایی با تصاویر زنان سیاه پوست، اغلب کمتر از مردان سیاه پوست و یا زنان سفید پوست انتخاب می‌شود.

«Willie Agnew» از محققان دانشگاه واشنگتن که بر روی این پروژه تحقیق کرده است، می‌گوید: چنین آزمایشی باید زنگ هشداری برای حوزه رباتیک باشد.

او همچنین می‌گوید این فرصت ممکن است نیازمند تعبیه کردن راه‌های جدید برای آزمایش ربات‌ها باشد. محققان می‌گویند اطلاعات موجود در بستر اینترنت می‌تواند سبب تقویت الگوریتم‌هایی شود که برای آموزش مدل‌های هوش مصنوعی کاربرد دارند؛ تا جایی که به تازگی گوگل ربات‌هایی را به نمایش گذاشته است که به لطف متون بر گرفته شده از اینترنت، قادر به درک دستورات به زبان طبیعی هستند. اما همین امر مشکلاتی را نیز در بر داشته است؛ چرا که پژوهشگران نشان داده اند مدل‌های از پیش آموزش داده شده می‌توانند تقویت کننده الگو‌های تبعیضی علیه گروه‌های خاصی از مردم باشند و در واقع اینترنت، به مانند آینه‌ای معکوس از جهان در این زمینه عمل می‌کند. این پژوهشگر دانشگاه واشنگتن می‌گوید: به دلیل آنکه مدل‌هایی که ما اکنون در حال استفاده از آن هستیم، تنها بر اساس اطلاعات موجود در اینترنت عمل می‌کنند، بنابراین ربات‌های ما نیز رفتاری جانبدارانه دارند.

گفتنی است این پژوهشگر دانشگاه واشنگتن به همراه همکارانش از موسسه فناوری جورجیا، دانشگاه جانز هاپکینز و دانشگاه فنی مونیخ آلمان یافته‌های خود را به تازگی در مقاله‌ای با عنوان «ربات‌ها کلیشه‌هایی خطرناک را به نمایش می‌گذارند» در کنفرانسی که در سئول، پایتخت کره جنوبی برگزار شده بود، ارائه دادند.

تازه ترین ها
حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای طرف‌دار اسرائیل مدعی حمله سایبری به بانک سپه شدند.

خودزنی
1404/03/27 - 19:26- آسیا

خودزنی پدافند هوایی رژیم صهیونیستی

بر اثر حمله سایبری و نفوذ به سامانه پدافندی رژیم صهیونیستی، موشک رهگیر کنترل خود را از دست می‌دهد و به خود شلیک می‌کند.

تبدیل
1404/03/27 - 14:14- هوش مصنوعي

تبدیل سیگنال‌های مغزی به کلمات توسط هوش مصنوعی

دانشمندان با استفاده از هوش مصنوعی سیگنال‌های مغزی را به کلمات تبدیل می‌کنند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.