هشدار اداره ملی سایبری رژیم صهیونیستی درمورد کلاهبرداریهای دیپفیک
به گزارش کارگروه تروریسم سایبری سایبربان؛ در سال ۲۰۲۱، کلاهبرداریهای دیپفیک صوتی، دنیای شرکتها را تکان داد، زیرا هکرها با شبیهسازی صدای مدیران، میلیونها دلار را به سرقت بردند. اکنون، این تهدید به ویدیو نیز گسترش یافته است: پیشرفت در هوش مصنوعی، مجرمان را قادر میسازد تا تماسهای زنده دیپفیک را اجرا و به طور قانعکنندهای چهره و صدای افراد در موقعیتهای قدرت را جعل کنند.
واحد شناسایی بیومتریک اداره سایبری ملی رژیم صهیونیستی در گزارش ویژهای هشدار داد که این فناوری از کاربرد آزمایشی به یک سلاح جمعی تبدیل شده است.
این گزارش از شهرکنشینان اسرائیلی خواست تا آماده شوند. شرکت پیشگیری از کلاهبرداری «Trustpair» اعلام کرد که در سال ۲۰۲۴ شاهد افزایش ۱۱۸ درصدی استفاده از ویدیو و صدای جعلی بوده است. شرکت دیگری به نام «Entrust» نیز اظهار داشت که هر 5 دقیقه یک کلاهبرداری دیپفیک در سراسر جهان انجام میشود و حدود ۴۰ درصد از کل موارد کلاهبرداری بیومتریک اکنون شامل چنین ابزارهایی است.
طبق گزارش مذکور، مجرمان از نرمافزارهای دیپفیک موجود برای جعل هویت مدیران عامل، پزشکان و وکلا، چه به صورت زنده و چه از طریق کلیپهای از پیش ضبط شده، استفاده میکنند. این دیپفیکها به اندازه کافی قانعکننده به نظر میرسند تا دستورالعملهای مالی یا دستورات حساس صادر کنند. در سال گذشته، اداره ملی سایبری رژیم صهیونیستی ۲۵۰ گزارش از ویدیوهای دیپفیک در اراضی اشغالی دریافت کرد که بیشتر آنها شامل جعل هویت چهرههای عمومی بود.
پروندههای مشهور در سراسر جهان
بدنامترین پرونده از این دست در اوایل سال ۲۰۲۴ در هنگکنگ رخ داد. یک مدیر ارشد مالی در شرکت مهندسی بریتانیایی آروپ (Arup)، دعوتنامهای از طریق ایمیل برای تماس ویدیویی با مدیر مالی شرکت و چندین مدیر اجرایی که به خوبی میشناخت، دریافت کرد.
در طول جلسه، آنها درخواست انتقال فوری وجه را به عنوان بخشی از یک خرید مخفی کردند. کارمند با دیدن چهرههای آشنا و شنیدن صداهای آشنا، اطمینان خاطر پیدا و ۱۵ انتقال به 5 حساب را به مبلغ ۲۵ میلیون دلار تأیید کرد. در واقع، همه شرکتکنندگان فرضی، دیپفیکهایی بودند که توسط هوش مصنوعی تولید شده بودند. گزارشهای سالهای ۲۰۲۳ و ۲۰۲۴ افزایش شدیدی را در تلاشهای دیپفیک برای دور زدن مراحل تأیید هویت مورد نیاز بانکها و شرکتها نشان میدهد. مجرمان ویدیوهای جعلی از افراد واقعی در حال انجام اقداماتی مانند پلک زدن، چرخاندن سر یا خواندن جملات ایجاد میکنند. این ترفندها به آنها کمک میکند تا حسابهای بانکی دیجیتال باز کنند، برای وام درخواست دهند یا به دادههای شخصی دسترسی پیدا کنند.
تحقیقات شرکت تأیید هویت رگولا (Regula) و نهادهای نظارتی نشان میدهد که بیش از ۱۰۰۰ حساب جعلی و تعداد بیشماری درخواست وام جعلی از این طریق ایجاد شده است. ضررها به دهها یا حتی صدها میلیون دلار رسیده است.
فراتر از امور مالی: خطرات سیاسی و امنیتی
این تهدید بسیار فراتر از دنیای تجارت است. نعما بن-تزوی (Naama Ben-Tzvi)، رئیس واحد شناسایی بیومتریک اداره ملی سایبری رژیم صهیونیستی، گفت:
«هر کسی که با یک ارائهدهنده خدمات، مانند روانشناس، وکیل یا مشاور وام مسکن، تماس ویدیویی برقرار میکند، باید بداند که این میتواند یک جعل هویت باشد.»
اداره ملی سایبری رژیم صهیونیستی نسبت به حملات فزاینده و پیچیدهای هشدار داد که در آن مجرمان نمونههای ویدیویی و صوتی مدیران را جمعآوری، ساختار یک سازمان را مطالعه و سپس از ابزارهای هوش مصنوعی در دسترس برای تولید جعلیات بسیار معتبر استفاده میکنند. انگیزهها میتوانند شامل جاسوسی، سرقت اطلاعات شخصی، کلاهبرداریهای مالی، نقض حریم خصوصی یا آمادهسازی برای حملات سایبری گستردهتر باشند.
اواخر سال ۲۰۲۴ و اوایل ۲۰۲۵، ویدیوهای دیپفیک از نیرمالا سیتارامان (Nirmala Sitharaman)، وزیر دارایی هند، به طور گسترده پخش شد. این کلیپها به دروغ نوید بازده نجومی برای سپردههای کوچک را میدادند. این کلاهبرداری آنقدر قانعکننده بود که دولت هند مجبور شد علناً صحت آن را انکار کند.
در عین حال، مقامات آمریکایی گزارش دادند که هزاران نفر از عوامل کره شمالی با استفاده از دیپفیکهای تولید شده توسط هوش مصنوعی در طول مصاحبههای زوم، مشاغل فنی را به دست آوردند. استخدامکنندگان قادر به تشخیص استفاده نامزدها از هویتهای دیجیتالی جعلی نبودند.
طبق گزارش اسرائیلی، تاکتیکهای احتمالی دیگری شامل پیوستن به جلسات از طریق لینکهای دزدیده شده، ورود به سیستم با پروفایلهای جعلی ذکر شدند که نام و عکس واقعی شرکتکنندگان را دارند یا ارسال دعوتنامههای فیشینگ که نیاز به دانلود نرمافزارهای مخرب دارند، میشود.
علامتهای خطر و دفاع
اداره ملی سایبری رژیم صهیونیستی چندین اقدام متقابل را توصیه کرد؛ این موارد شامل درخواست از شرکتکنندگان برای نمایش یک مورد فیزیکی خاص در دوربین، استفاده از تجزیه و تحلیل حرکات صورت در زمان واقعی و بهکارگیری ابزارهای تأیید مبتنی بر هوش مصنوعی است. افراد همچنین باید در طول تماسها به دنبال علائم هشداردهنده باشند: حالتهای چهره منجمد، چشمهای نامتمرکز، هماهنگی ضعیف لبها یا پاسخهای با تأخیر.