هشدار اف بی آی به کاربران آیفون و اندروید
به گزارش کارگروه امنیت خبرگزاری سایبربان، علیرغم تلاش شرکتهایی مانند گوگل، این حملات به قدری پیشرفته شدهاند که حتی اف بی آی به کاربران هشدار داده تا تماسهای مشکوک را فوراً قطع کنند و یک کد مخفی برای امنیت خود تنظیم کنند.
برخلاف تصور عموم که جعل عمیق تنها شامل تغییر چهره در ویدئوها میشود، بزرگترین تهدید در حال حاضر جعل صدا با استفاده از هوش مصنوعی است.
این فناوری باعث شده که مجرمان سایبری بتوانند صدای افراد را شبیهسازی کرده و خانوادههای آنها را هدف باجگیری قرار دهند.
آدریانوس وارمنهوفن، کارشناس امنیت سایبری در نورد وی پی ان (NordVPN)، هشدار داده که مجرمان تلفنی از ابزارهای جعل صدا برای کلاهبرداری استفاده میکنند، زیرا این فناوری در دسترستر و مؤثرتر شده است.
یکی از روشهای رایج، جعل صدای یک فرد و تماس با اعضای خانواده او برای جعل وضعیت اضطراری و اخاذی است.
طبق گزارش تروکالر (Truecaller) و هریس پل (Harris Poll) در اکتبر ۲۰۲۴، طی یک سال گذشته بیش از ۵۰ میلیون نفر در آمریکا قربانی کلاهبرداری تلفنی شدهاند و میانگین خسارت مالی به ازای هر نفر ۴۵۲ دلار بوده است.
وارمنهوفن تأکید کرده که هر فرد باید با خطرات جعل صدا آشنا باشد، زیرا این فناوری میتواند برای درخواست پول یا اطلاعات شخصی از اعضای خانواده مورد سوءاستفاده قرار گیرد.
یوروپل هشدار داده که مجرمان سازمانیافته به سرعت در حال سازگاری با فناوریهای جدید مانند هوش مصنوعی هستند و این امر آنها را خطرناکتر و شناساییشان را دشوارتر کرده است.
به گفته کاترین د بول، مدیر اجرایی یوروپل، هوش مصنوعی باعث گسترش جرایم سازمانیافته شده است و مجرمان از آن برای گسترش عملیات خود و افزایش مقیاس حملات سوءاستفاده میکنند.
همچنین، تقریباً تمامی جرایم سازمانیافته دارای ردپای دیجیتال هستند.
این فناوریها، امکان جعل صدا و پیامهای متقاعدکننده را به سرعت و دقتی بیسابقه فراهم کردهاند، به طوری که حتی متخصصان امنیت سایبری نیز ممکن است در تشخیص آنها دچار مشکل شوند.
اف بی آی هشدار داده که تنها راه مؤثر برای مقابله با این حملات، قطع تماس و استفاده از یک کد مخفی بین اعضای خانواده است.
توصیههای اف بی آی و کارشناسان امنیت شامل موارد زیر است:
1. در صورت دریافت تماس مشکوک از سوی فردی که ادعا میکند یکی از اعضای خانواده شماست و درخواست پول دارد، تماس را قطع کرده و شخص را از طریق روشهای دیگر تأیید کنید.
2. یک کد یا عبارت مخفی که فقط اعضای نزدیک خانواده از آن اطلاع دارند تعیین کنید و در چنین شرایطی برای تأیید هویت از آن استفاده کنید.
3. از انتشار محتوای صوتی در شبکههای اجتماعی خودداری کنید، زیرا مجرمان میتوانند از این صداها برای جعل تماسهای عمیق استفاده کنند.
4. با خانواده و اطرافیان در مورد این تهدیدات صحبت کنید تا آگاهی عمومی افزایش یابد و از قربانی شدن افراد جلوگیری شود.
با پیشرفت هوش مصنوعی، جعلهای عمیق دیگر فقط محدود به ویدئو نیستند و جعل صدا یکی از تهدیدات جدی برای امنیت سایبری کاربران آیفون و اندروید محسوب میشود.
برای جلوگیری از قربانی شدن در این حملات، کاربران باید تماسهای مشکوک را قطع کرده، از کدهای مخفی برای احراز هویت استفاده کنند و در مورد امنیت اطلاعات خود هوشیار باشند.