about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

علاوه‌ بر نگرانی‌ها از نقض حریم خصوصی، بسیاری به سوگیری این ابزارها و عدم بازدهی آنها در مطالعات انجام گرفته اشاره می‌کنند و خواستار شفاف‌سازی بیشتری در این رابطه هستند.

به گزارش کارگروه فناوری اطلاعات سایبربان ، براساس یک قانون موقت در فرانسه، مقامات این کشور امکان استفاده از هوش مصنوعی و یادگیری ماشینی برای تجزیه تحلیل آنی اطلاعات ویدیویی و نظارت هوشمند بر جمعیت‌ها را فراهم کرده‌اند. این ابزارها قرار است ناهنجاری و تهدید‌ها را با سرعت بالایی تشخیص داده و حتی پیش‌بینی کنند.

دوربین‌های سراسر شهر پاریس میلیون‌ها طرفدار المپیک و شهروند پاریس را با دقت زیر نظر می‌گیرند و قرار است چیزهایی مثل وجود اسلحه یا حرکت افراد در خلاف جهت جمعیت و دیگر موارد عجیب را شناسایی کنند. در صورت تشخیص ناهنجاری و تهدید، این موارد به کارکنان امنیتی اطلاع داده می‌شود و آنها درمورد گزارش به پلیس ملی و محلی تصمیم می‌گیرند.

با اینکه قانون‌گذاران فرانسوی این ابزار را یک اقدام امنیتی ویژه برای جلوگیری از خشونت در این مراسم چند‌ هفته‌ای عنوان می‌کنند، اما حامیان حریم خصوصی در سراسر جهان در این باره اظهار نگرانی کرده‌اند.

آری ازرا والدمن، استاد حقوق دانشگاه کالیفرنیا، با اشاره به فیلم علمی‌تخیلی Minority Report سال ۲۰۰۲، می‌گوید: «آنچه این ابزارها قرار است محقق کنند چیزی شبیه به تلاش‌های پیش از هوشیاری تام کروز در آن فیلم چند سال پیش است.»

برخی از حامیان حریم خصوصی می‌گویند این فناوری آزادی‌های مدنی را نقض می‌:ند، سو‌گیری ذاتی دارد و با احتمال اشتباه روبرو است. همچنین جمع‌آوری داده در آینده نیز ادامه پیدا می‌کند و از این فناوری در مراسم‌های بزرگ آمریکایی، از جمله المپیک سال ۲۰۲۸ لس آنچلس، استفاده خواهد شد.

با اینکه والدمن و دیگر حامیان حریم خصوصی به افزایش خطرات احتمالی در نتیجه گرد هم آمدن چنین اعتراف می‌کنند اما از نظر آنها راه‌های دیگر و بازارهای بهتری وجود دارند که با نگرانی‌های حریم خصوصی کمتری هم همراه هستند.

به گفته والدمن استادیوم‌ها به خوبی با حسگر‌های فلز، بررسی بدنی و مقررات عدم حمل کیف، جمعیت را مدیریت می‌کنند. به گفته او اصرار بر استفاده از هوش مصنوعی برآمده از رویکردی است که استفاده از فناوری را همواره بهتر از روش‌های سابق می‌داند.

قانونی که امکان استفاده از چنین نظارتی را در فرانسه فراهم کرده است پس از یک دوره مشخص منسوخ می‌شود. در حالی که با اتکا به همین قانون می‌توان برای مسابقات پارالمپیک ۲۰۲۴ که ۲۸ آگوست آغاز می‌شود نیز از نظارت الگوریتمی استفاده کرد، اما بهار سال آینده دیگر چنین قانونی وجود نخواهد داشت.

با این حال از نگاه حامیان حریم خصوصی، افزایش استفاده از سیستم‌های هوش مصنوعی ویدیویی در چنین مراسم‌های مهمی ممکن است باعث میل بیشتر به استفاده از این سیستم‌ها در مناطق دیگر شود.

الا جاکوبفسکی، رئیس سیاست‌گذاری در سازمان حقوق دیجیتال اروپاییان (European Digital Rights)، می‌گوید: «آنها همیشه از این اسب‌های تروجان استفاده می‌کنند تا استفاده گسترده‌تر از این فناوری‌ها را اجرایی کنند.»

نگرانی‌های جدی

با اینکه قوانین فرانسوی تنها برای یک دوره مشخص استفاده از این سیستم‌ها را مجاز می‌داند و در این مقررات تصریح شده است که سیستم‌ها اطلاعات بیومتریک را پردازش نمی‌کنند، اما گروه‌‌های حامی حریم خصوصی تردید دارند.

سازمان حقوق دیجیتال اروپاییان و حدود سی سازمان حقوق بشری دیگر سال گذشته در نامه سر گشاده‌ای اعلام کردند با اینکه این سیستم‌ها براساس قوانین فرانسه از ترفند‌های تشخیص چهره استفاده نمی‌کنند، اما همچنان افراد را در میان جمعیت شناسایی می‌کنند. درنتیجه شاهد «شناسایی خاص» هستیم که محافظت‌های موجود در مقررات عمومی حفاظت از داده اتحادیه اروپا را نقض می‌کند.

همچنین به گفته لاورا لازارو کابررا، مشاور و مسئول طرح برابر و داده در مرکز دموکراسی و فناوری، این ابزارها برای تشخیص آن دسته از رخداد‌هایی که قرار است زیر نظر بگیرند نیاز به داده‌های بیومتریک دارند.

لازارو کابررا می‌گوید: «[این سیستم] لزوما مشخصه‌های فیزیولوژیکی رفتار‌ها و افرادی را که در این فضا‌ها حضور دارند، از جمله حالت بدنی آنها، حرکت‌ها، حالت‌ها و غیره را ثبت و تجزیه‌تحلیل می‌کند.»

افزون بر این، با اینکه مدارک کافی از بازدهی این سیستم‌ها وجود ندارد، از آنها در موضوعات احساسی استفاده می‌شود. مطالعه‌ای در سال ۲۰۲۳ از The Markup و Wired نشان داد که نرم‌افزار نظارت پیشگویانه Geolitica در پیش‌بینی جریام ضعیف است و نرخ موفقیت آن برای برخی از جرایم تا ۰.۱ درصد کاهش می‌یابد. تحقیقات دیگری در سال گذشته نیز نشان داد که استفاده از ابزارهای تشخیص جهره خودکار در نهاد‌های انتظامی به دستگیری بیشتر سیاه‌پوستان منجر می‌شود که از نگاه تحلیلگران به وضعیت دیتاست این ابزارها بر می‌گردد.

به همین دلیل گروه‌های حقوق بشری می‌گویند باید درمورد میزان بازدهی این سیستم‌ها برای عموم شفاف‌سازی شود تا مردم نیت خیر استفاده از آنها را به معنی بازدهی و کاربردی بودن آنها تلقی نکنند.

تازه ترین ها
سرمایه‌گذاری
1404/08/13 - 17:11- اروپا

سرمایه‌گذاری ۶۰ میلیون یورویی برای تقویت تاب‌آوری سایبری اوکراین

وزارت تحول دیجیتال اوکراین اعلام کرد که بیش از ۶۰ میلیون یورو برای تقویت تاب‌آوری سایبری این کشور جذب خواهد شد.

درخواست
1404/08/13 - 16:55- هوش مصنوعي

درخواست ناشران ژاپنی از OpenAI برای توقف آموزش هوش مصنوعی

ناشران ژاپنی از «OpenAI» خواستند تا استفاده از آثارشان برای آموزش هوش مصنوعی را متوقف کند.

هوش
1404/08/13 - 16:45- هوش مصنوعي

هوش مصنوعی به خط مقدم رسید؛ کاروان نظامی اروپا اسپانیا، خودش رانندگی می‌کند

اسپانیا در یک گام رو به جلو، از اولین کاروان نظامی خودران اروپا رونمایی کرد. این پروژه با هدف افزایش کارایی و ایمنی عملیات لجستیکی نظامی انجام شده است.