about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

واحد شناسایی بیومتریک اداره ملی سایبری رژیم صهیونیستی اعلام کرد که کلاهبرداری‌های ویدیویی دیپ‌فیک تهدید سایبری بزرگی در سرزمین‌های اشغالی هستند.

به گزارش کارگروه تروریسم سایبری سایبربان؛ در سال ۲۰۲۱، کلاهبرداری‌های دیپ‌فیک صوتی، دنیای شرکت‌ها را تکان داد، زیرا هکرها با شبیه‌سازی صدای مدیران، میلیون‌ها دلار را به سرقت بردند. اکنون، این تهدید به ویدیو نیز گسترش یافته است: پیشرفت در هوش مصنوعی، مجرمان را قادر می‌سازد تا تماس‌های زنده دیپ‌فیک را اجرا و به طور قانع‌کننده‌ای چهره و صدای افراد در موقعیت‌های قدرت را جعل کنند.

واحد شناسایی بیومتریک اداره سایبری ملی رژیم صهیونیستی در گزارش ویژه‌ای هشدار داد که این فناوری از کاربرد آزمایشی به یک سلاح جمعی تبدیل شده است.

این گزارش از شهرک‌نشینان اسرائیلی خواست تا آماده شوند. شرکت پیشگیری از کلاهبرداری «Trustpair» اعلام کرد که در سال ۲۰۲۴ شاهد افزایش ۱۱۸ درصدی استفاده از ویدیو و صدای جعلی بوده است. شرکت دیگری به نام «Entrust» نیز اظهار داشت که هر 5 دقیقه یک کلاهبرداری دیپ‌فیک در سراسر جهان انجام می‌شود و حدود ۴۰ درصد از کل موارد کلاهبرداری بیومتریک اکنون شامل چنین ابزارهایی است.

طبق گزارش مذکور، مجرمان از نرم‌افزارهای دیپ‌فیک موجود برای جعل هویت مدیران عامل، پزشکان و وکلا، چه به صورت زنده و چه از طریق کلیپ‌های از پیش ضبط شده، استفاده می‌کنند. این دیپ‌فیک‌ها به اندازه کافی قانع‌کننده به نظر می‌رسند تا دستورالعمل‌های مالی یا دستورات حساس صادر کنند. در سال گذشته، اداره ملی سایبری رژیم صهیونیستی ۲۵۰ گزارش از ویدیوهای دیپ‌فیک در اراضی اشغالی دریافت کرد که بیشتر آنها شامل جعل هویت چهره‌های عمومی بود.

پرونده‌های مشهور در سراسر جهان

بدنام‌ترین پرونده از این دست در اوایل سال ۲۰۲۴ در هنگ‌کنگ رخ داد. یک مدیر ارشد مالی در شرکت مهندسی بریتانیایی آروپ (Arup)، دعوت‌نامه‌ای از طریق ایمیل برای تماس ویدیویی با مدیر مالی شرکت و چندین مدیر اجرایی که به خوبی می‌شناخت، دریافت کرد.

در طول جلسه، آنها درخواست انتقال فوری وجه را به عنوان بخشی از یک خرید مخفی کردند. کارمند با دیدن چهره‌های آشنا و شنیدن صداهای آشنا، اطمینان خاطر پیدا و ۱۵ انتقال به 5 حساب را به مبلغ ۲۵ میلیون دلار تأیید کرد. در واقع، همه شرکت‌کنندگان فرضی، دیپ‌فیک‌هایی بودند که توسط هوش مصنوعی تولید شده بودند. گزارش‌های سال‌های ۲۰۲۳ و ۲۰۲۴ افزایش شدیدی را در تلاش‌های دیپ‌فیک برای دور زدن مراحل تأیید هویت مورد نیاز بانک‌ها و شرکت‌ها نشان می‌دهد. مجرمان ویدیوهای جعلی از افراد واقعی در حال انجام اقداماتی مانند پلک زدن، چرخاندن سر یا خواندن جملات ایجاد می‌کنند. این ترفندها به آنها کمک می‌کند تا حساب‌های بانکی دیجیتال باز کنند، برای وام درخواست دهند یا به داده‌های شخصی دسترسی پیدا کنند.

تحقیقات شرکت تأیید هویت رگولا (Regula) و نهادهای نظارتی نشان می‌دهد که بیش از ۱۰۰۰ حساب جعلی و تعداد بی‌شماری درخواست وام جعلی از این طریق ایجاد شده است. ضررها به ده‌ها یا حتی صدها میلیون دلار رسیده است.

فراتر از امور مالی: خطرات سیاسی و امنیتی

این تهدید بسیار فراتر از دنیای تجارت است. نعما بن-تزوی (Naama Ben-Tzvi)، رئیس واحد شناسایی بیومتریک اداره ملی سایبری رژیم صهیونیستی، گفت:

«هر کسی که با یک ارائه‌دهنده خدمات، مانند روانشناس، وکیل یا مشاور وام مسکن، تماس ویدیویی برقرار می‌کند، باید بداند که این می‌تواند یک جعل هویت باشد.»

اداره ملی سایبری رژیم صهیونیستی نسبت به حملات فزاینده و پیچیده‌ای هشدار داد که در آن مجرمان نمونه‌های ویدیویی و صوتی مدیران را جمع‌آوری، ساختار یک سازمان را مطالعه و سپس از ابزارهای هوش مصنوعی در دسترس برای تولید جعلیات بسیار معتبر استفاده می‌کنند. انگیزه‌ها می‌توانند شامل جاسوسی، سرقت اطلاعات شخصی، کلاهبرداری‌های مالی، نقض حریم خصوصی یا آماده‌سازی برای حملات سایبری گسترده‌تر باشند.

اواخر سال ۲۰۲۴ و اوایل ۲۰۲۵، ویدیوهای دیپ‌فیک از نیرمالا سیتارامان (Nirmala Sitharaman)، وزیر دارایی هند، به طور گسترده پخش شد. این کلیپ‌ها به دروغ نوید بازده نجومی برای سپرده‌های کوچک را می‌دادند. این کلاهبرداری آنقدر قانع‌کننده بود که دولت هند مجبور شد علناً صحت آن را انکار کند.

در عین حال، مقامات آمریکایی گزارش دادند که هزاران نفر از عوامل کره شمالی با استفاده از دیپ‌فیک‌های تولید شده توسط هوش مصنوعی در طول مصاحبه‌های زوم، مشاغل فنی را به دست آوردند. استخدام‌کنندگان قادر به تشخیص استفاده نامزدها از هویت‌های دیجیتالی جعلی نبودند.

طبق گزارش اسرائیلی، تاکتیک‌های احتمالی دیگری شامل پیوستن به جلسات از طریق لینک‌های دزدیده شده، ورود به سیستم با پروفایل‌های جعلی ذکر شدند که نام و عکس واقعی شرکت‌کنندگان را دارند یا ارسال دعوت‌نامه‌های فیشینگ که نیاز به دانلود نرم‌افزارهای مخرب دارند، می‌شود.

علامت‌های خطر و دفاع

اداره ملی سایبری رژیم صهیونیستی چندین اقدام متقابل را توصیه کرد؛ این موارد شامل درخواست از شرکت‌کنندگان برای نمایش یک مورد فیزیکی خاص در دوربین، استفاده از تجزیه و تحلیل حرکات صورت در زمان واقعی و به‌کارگیری ابزارهای تأیید مبتنی بر هوش مصنوعی است. افراد همچنین باید در طول تماس‌ها به دنبال علائم هشداردهنده باشند: حالت‌های چهره منجمد، چشم‌های نامتمرکز، هماهنگی ضعیف لب‌ها یا پاسخ‌های با تأخیر.

منبع:

تازه ترین ها
تأکید
1404/07/09 - 15:03- آسیا

تأکید بر موضوع تهدیدات سایبری در مجمع امنیتی باکو 2025

مجمع امنیتی باکو ۲۰۲۵ به تروریسم، تهدیدات سایبری و بحران‌های جهانی می‌پردازد.

مشارکت
1404/07/09 - 14:50- اروپا

مشارکت استونی و اوکراین برای آموزش بیش از 500 متخصص سایبری

استونی و اوکراین آموزش‌های سایبری را برای آموزش بیش از ۵۰۰ متخصص سایبری در اوکراین آغاز کردند.

مایکروسافت
1404/07/09 - 14:49- بررسی تخصصی

مایکروسافت از یک فروشگاه تخصصی برای نرم‌افزارهای امنیت سایبری رونمایی کرد

کاربران همچنین می‌توانند ایجنت‌های هوش مصنوعی اختصاصی خود را ایجاد کنند.