about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

به گزارش واحد امنیت سایبربان؛ با توجه به پیشرفت‌های حاصل شده در زمینه هوش مصنوعی و به کارگیری آن در امنیت سایبری، واژه‌ی یادگیری ماشینی یکی از اصلی‌ترین مفاهیم امنیتی را سال 2017 دارد؛ اما دشمنی که به اندازه‌ی کافی هوشمند باشد، می‌تواند از الگوریتم‌های این فناوری سوءاستفاده کرده و کیفیت تصمیم‌های گرفته شده را کاهش دهد.
دوبراه فرینک (Deborah Frincke)، مدیر اداره‌ی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا1 گفت: «هم‌اکنون نگرانی‌هایی در مورد احتمال پیدایش دشمنی که قادر باشد در یک محیط بزرگ از داده‌ها، آن را با اطلاعات غلط فریب بدهد وجود دارد.»
فرینک در مورد الگوریتم یادگیری ماشینی رقیب2 (Adversarial machine learning) گفت: «یک حوزه مطالعاتی جدید بوده و شاهد آن هستیم که تا حدی به طور طبیعی در حال پیشرفت است. شاید معقول باشد اگر به استمرار این مسیر باور داشته باشیم»
به عنوان مثال یک سازمان ممکن است تصمیم بگیرد از یادگیری ماشینی برای توسعه یک سامانه‌ی خود تشخیصی با قابلیت رفع آسیب‌پذیری‌ها در شبکه‌ی خود استفاده کند؛ اما چه اتفاقی رخ می‌دهد اگر یک مهاجم بتواند به شبکه نفوذ کند؟ یا حتی قبل از شروع پردازش الگوریتم یاد شده در شبکه حضور داشته باشد؟
فرینک گفت: «رفتار هکرها هم‌اکنون به بخشی از یک هنجار تبدیل شده است؛ در نتیجه فعالیتی که من برای محافظت از سامانه‌ی خود انجام می‌دهم به یک چالش تبدیل می‌گردد. نکته‌ی جالب‌تر این است که اگر شما از یک الگوریتم داده محور برای تغذیه‌ی یادگیری ماشینی استفاده می‌کنید؛ حتی اگر داده‌های اصلی را نگاه‌دارید، نمی‌توانید متوجه شوید چه رویکردی برای الگوریتم مذکور ایجاد شده است.»
تحلیلگران معتقدند یادگیری ماشینی نیز با محدودیت‌هایی همراه است. به عنوان مثال تام درامُند (Tom Drummond) استاد دانشگاه مانش استرالیا (Monash University)، در سال 2016 اشاره کرد شبکه‌های عصبی که اساس یادگیری ماشینی محسوب می‌شود، می‌توانند گمراه شوند، مگر اینکه به آن‌ها گفته شود چرا در اشتباه هستند و مسیر درست کدام است.
برای اشاره به نمونه‌ی کلاسیک دیگری از این مشکل، می‌توان به بخشی از گزارش نیل فراسر (Neil Fraser) با عنوان «حماقت شبکه‌ی عصبی» (Neural Network Follies) در سال 1998 اشاره کرد.
بر اساس گزارش یاد شده وزارت دفاع آمریکا از دهه‌ی 80 در تلاش است از شبکه‌ی عصبی برای تشخیص تهدیدات استفاده کنند. به عنوان مثال می‌توان از شناسایی تانک‌های پنهان شده‌ی دشمن در پشت درخت نام برد. محققان، این شبکه را با دو دسته از تصاویر آموزش دادند. دسته‌ی اول تصاویری از درختانی هستند که پشت آن‌ها تانکی قرار داشته و دیگر عکس‌ها مربوط به درختانی بدون حضور تانک می‌شد؛ اما زمانی که سامانه مورد استفاده قرار گرفت با شکست سنگینی مواجه گشت.
فراسر در مقاله‌ی یاد شده نوشته است: «بعد از انجام بررسی‌های گسترده، در نهایت فردی متوجه شد تمام 200 تصویری که تانک در آن حضور داشت در روزی ابری گرفته شده‌اند؛ این در حالی است که دیگر تصاویر را در روزی آفتابی ثبت کرده‌اند. در حال حاضر ارتش دارای ابر رایانه‌ای به ارزش چندین میلیون دلاری است که می‌تواند تشخیص دهد هوا ابری است یا آفتابی.»
در زمان سخنرانی فرینک در اجلاس مرکز امنیت سایبری استرالیا (ACSC3) در کانبرا در مورد محدودیت‌های یادگیری ماشینی صحبت کرد. وی همچنین به تشریح چند راه بردی که از نظر سازمان سیا مؤثر هستند، پرداخت.
برای نمونه سازمان‌ها می‌توانند با پنهان کردن توان یادگیری ماشینی خود از دشمن قدرت امنیت سایبری خود را متعادل سازند.
به صورت طبیعی دفاع از شبکه‌ها حالتی نامتقارن دارد. امنیت سایبری بسیار نامتعادل است؛ زیرا کارشناسان باید در برابر تمام تهدیدات امنیت ایستاده و آن‌ها را بررسی کنند؛ اما هکرها تنها روی حمله‌ی خود متمرکز می‌شوند.
مدیر اداره‌ی تحقیقات ادامه داد: «در مواجهه با هکرها باید کاری وجود داشته باشد که بتوان انجام داد و این‌طور تصور می‌کنید که احتمالاً از مزیت بازی در زمین خانگی برخوردار خواهید بود.»
به طور معمول سازمان‌ها در تلاش هستند، سامانه‌های اطلاعاتی خود را تا حد امکان کارآمد نگاه داشته و هر چه بیشتر شبکه را کنترل کند؛ اما از دیدگاه یک مهاجم پیش‌بینی رویدادهای داخل شبکه، در هر لحظه بسیار ساده است.
رویکرد فریب در دفاع (defensive deception approach) به معنی ایجاد ظرفیت اضافی برای طراحی رویکردهایی متغیر است تا مهاجمان را گمراه کند. در واقع باعث می‌شود یک هکر در زمان حمله متوجه نشود داده‌های موجود واقعی است یا خیر و عملکردی مشابه هانیپات (honeypot) دارد.
به عنوان مثال می‌توان به پردازش داده‌ها در یک محیط ابری اشاره کرد. در این روش احتمالاً داده‌های تکراری در سراسر بسیاری از گره‌های شبکه به وجود آمده و کاربر در زمان استفاده، بین آن‌ها سوییچ می‌کند.
فرینک خاطر نشان کرد: «اگر شما سعی کنید حمله‌ای یک پارچه انجام بدهید، نمی‌توانید تشخیص دهید که من از کدام‌یک از صدها گره‌ی موجود استفاده می‌کنم. ممکن است که من در حال کار در یک زیرمجموعه از گره‌ها باشم و شما نتوانید آن را پیدا کنید. در نتیجه باید تمام گره‌ها را در یک زمان و با یکدیگر تغییر بدهید؛ اما این کار بسیار سخت است.»
وی اشاره کرد رویکردهای بالا می‌تواند احتمال تشخیص مهاجم‌ها را افزایش بدهد.
مدیر اداره‌ی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا گفت: «ما می‌توانیم هکرها را به سمت نتایج غلط راهنمایی کنیم. ما در حال تلاش برای سخت‌تر شدن کار و ساده شدن شناسایی آن‌ها هستیم.»

_____________________________________

1- Research Directorate (RD) of the US National Security Agency/Central Security Service
2- یادگیری ماشینی رقیب یک زمینه‌ی تحقیقاتی مشترک بین یادگیری ماشینی و امنیت رایانه‌ها است. هدف این زمینه‌ی تحقیقاتی تصویب  اتخاذ امن روش‌های یادگیری ماشینی برای کارهایی مانند فیلتر کردن هرزنامه‌ها، بدافزارها و احراز هویت بیومتریک است.
3- Australian Cyber Security Centre

 

تازه ترین ها
همکاری
1404/04/12 - 23:45- سایرفناوری ها

همکاری اُپن اِی آی و اوراکل در زمینه گسترش مرکز داده

شرکت‌های اُپن اِی آی و اوراکل برای گسترش عظیم مرکز داده هوش مصنوعی همکاری می‌کنند.

اعمال
1404/04/12 - 22:38- هوش مصنوعي

اعمال قوانین هوش مصنوعی تا پایان سال ۲۰۲۵ در اتحادیه اروپا

اتحادیه اروپا اعلام کرد که آیین‌نامه‌ای برای کمک به شرکت‌ها در رعایت قوانین هوش مصنوعی اعمال می‌شود.

تلاش تیک‌تاک برای جلوگیری از انتشار ویدئوهای نفرت‌انگیز

تیک‌تاک برای جلوگیری از انتشار ویدئوهای نفرت‌انگیز هوش مصنوعی تلاش می‌کند.