about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

محققان هوش مصنوعی با انجام آزمایشی، از رفتار تبعیض آمیز ربات‌ها در برابر گروه‌های مختلف بشری سخن گفتند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ پایگاه ماهنامه آمریکایی «وایرد» به تازگی در گزارشی، به آزمایش جالبی پرداخت که از سوی بخشی از محققان فعال در حوزه رباتیک برای بررسی رفتار نژادپرستانه و تبعیض آمیز از سوی ربات‌ها بکار گرفته شده است.

در این گزارش با اشاره به مسأله الگوریتم‌های هوش مصنوعی آمده است: الگوریتم‌های [برنامه ریزی]می‌توانند الگو‌های تبعیض آمیز را تشدید کنند و به همین خاطر محققان فعال در حوزه رباتیک، به دنبال راه‌هایی برای بازداشتن این آدم‌های مکانیکی، از چنین رفتار‌های جانبدارانه‌ای هستند.

در دهه ۱۹۴۰ میلادی، دو جامعه شناس به نام‌های «کنث کلارک» و «مامی کلارک» (Mamie Clark) اقدام به انجام آزمایشی کردند. آن‌ها تعدادی عروسک که دارای رنگ پوست سیاه و سفید بودند را در برابر کودکان خردسال قرار دادند و از آن‌ها خواستند عروسکی که بد به نظر می‌رسد و یا عروسکی که رنگ قشنگ تری دارد را بردارند. آزمایش عروسک برای این طراحی شد تا پیامد رفتار‌های تبعیض آمیز و نابرابر بر روی کودکان سیاه پوست در جامعه آمریکا بهتر فهمیده شود.

پس از آن، وکلایی از «انجمن ملی پیشرفت رنگین پوستان» (NAACP) که سازمانی در ارتباط با حقوق مدنی سیاه پوستان آمریکا به شمار می‌رود، موفق شدند تا از نتایج این تحقیق به منظور استدلال به نفع حذف تبعیض نژادی در مدارس آمریکا استفاده کنند. حال محققان فعال در زمینه هوش مصنوعی می‌گویند ربات‌ها نیز ممکن است تحت چنین آزمایش‌هایی قرار گیرند تا اطمینان حاصل شود تا با همه آحاد مردم رفتاری منصفانه خواهند داشت.

بر همین اساس، محققان اقدام به انجام یک آزمایش الهام گرفته شده از همان آزمایش عروسک بر روی یک «بازوی رباتیک» در یک محیط شبیه سازی شده کردند. این بازوی رباتیک به یک سیستم بصری مجهز شده بود و به شکلی تحت آموزش قرار گرفته بود تا عکس‌ها و کلمات مرتبط از تصاویر و متون آنلاین را به هم مرتبط کند؛ رویکردی که توسط شماری از فعالان حوزه رباتیک مورد استقبال قرار گرفته است. در این آزمایش، این ربات‌ها در معرض مکعب‌هایی قرار داده می‌شدند که با عکس‌های پاسپورتی مردان و زنانی که آسیایی، سیاه پوست، لاتین تبار و یا سفید پوست بودند، پوشانده شده بود.

در این آزمایش قرار بود این ربات، زمانی که با دستوراتی نظیر برداشتن «مکعب جنایتکار» و یا «مکعب خانه دار» مواجه می‌شوند، مکعب‌های گوناگونی را انتخاب کرده و بردارند. محققان پس از انجام آزمایش‌های مکرر متوجه شدند الگو‌های واضحی پیدار شده است که به نوعی نشانگر تبعیض جنسیتی و نژاد پرستی است. این در حالی است هیچ کدام از تصاویر افراد که بر روی این مکعب‌ها چسبانده شده بود، دارای عبارات توصیفی (نظیر جنایتکار و ...) نبودند.

به طور مثال زمانی که از این ربات خواسته می‌شد تا «مکعب جنایتکار» را بردارند، این «بازوی رباتیک» بیشتر مکعب‌هایی را بر می‌داشت که بر روی آن‌ها عکس مردان سیاه پوست چسبانده شده بود؛ به طوری که مشخص شد نسبت انتخاب تصویر مردان سیاه پوست به نسبت دیگر گروه‌ها از سوی این ربات ده درصد بیشتر است. در این آزمایش همچنین مشخص شد این بازوی رباتیک زمانی که از او خواسته می‌شود تا یک «دکتر» را انتخاب کند، به شکل قابل توجهی تصاویر زنان را انتخاب می‌کند. همچنین در تمامی آزمایش‌ها مشخص شد مکعب‌هایی با تصاویر زنان سیاه پوست، اغلب کمتر از مردان سیاه پوست و یا زنان سفید پوست انتخاب می‌شود.

«Willie Agnew» از محققان دانشگاه واشنگتن که بر روی این پروژه تحقیق کرده است، می‌گوید: چنین آزمایشی باید زنگ هشداری برای حوزه رباتیک باشد.

او همچنین می‌گوید این فرصت ممکن است نیازمند تعبیه کردن راه‌های جدید برای آزمایش ربات‌ها باشد. محققان می‌گویند اطلاعات موجود در بستر اینترنت می‌تواند سبب تقویت الگوریتم‌هایی شود که برای آموزش مدل‌های هوش مصنوعی کاربرد دارند؛ تا جایی که به تازگی گوگل ربات‌هایی را به نمایش گذاشته است که به لطف متون بر گرفته شده از اینترنت، قادر به درک دستورات به زبان طبیعی هستند. اما همین امر مشکلاتی را نیز در بر داشته است؛ چرا که پژوهشگران نشان داده اند مدل‌های از پیش آموزش داده شده می‌توانند تقویت کننده الگو‌های تبعیضی علیه گروه‌های خاصی از مردم باشند و در واقع اینترنت، به مانند آینه‌ای معکوس از جهان در این زمینه عمل می‌کند. این پژوهشگر دانشگاه واشنگتن می‌گوید: به دلیل آنکه مدل‌هایی که ما اکنون در حال استفاده از آن هستیم، تنها بر اساس اطلاعات موجود در اینترنت عمل می‌کنند، بنابراین ربات‌های ما نیز رفتاری جانبدارانه دارند.

گفتنی است این پژوهشگر دانشگاه واشنگتن به همراه همکارانش از موسسه فناوری جورجیا، دانشگاه جانز هاپکینز و دانشگاه فنی مونیخ آلمان یافته‌های خود را به تازگی در مقاله‌ای با عنوان «ربات‌ها کلیشه‌هایی خطرناک را به نمایش می‌گذارند» در کنفرانسی که در سئول، پایتخت کره جنوبی برگزار شده بود، ارائه دادند.

تازه ترین ها
رهگیری
1404/08/29 - 15:19- جرم سایبری

رهگیری ۵۵ میلیون دلار رمزارز مرتبط با سایت‌های دزدی دیجیتال

یوروپل روز چهارشنبه اعلام کرد که تحقیق‌کنندگان در یک عملیات بین‌المللی توانستند از طریق پرداخت هزینه خدمات پلتفرم‌ها با رمزارز، اطلاعاتی درباره شبکه‌های مجرمانه پشت سایت‌های استریم غیرقانونی به دست آورند.

تایید
1404/08/29 - 15:12- جرم سایبری

تایید سرقت اطلاعات از شرکت لاجیتک

شرکت تولیدکننده فناوری لاجیتک روز جمعه اسنادی را نزد کمیسیون بورس و اوراق بهادار آمریکا ثبت کرد که به یک حادثه اخیر امنیت سایبری مربوط می‌شود؛ حادثه‌ای که در آن از یک آسیب‌پذیری روز صفر سوءاستفاده شده بود.

شهادت
1404/08/29 - 15:03- آمریکا

شهادت رئیس دفتر بودجه کنگره مبنی بر اخراج هکرها از سیستم‌های ایمیلی

رئیس دفتر بودجه کنگره روز سه‌شنبه صبح به قانون‌گذاران اعلام کرد که این نهاد پس از حمله سایبری که دو هفته پیش افشا شد، هکرها را از سیستم‌های خود خارج کرده است.