about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

مجرمان سایبری به طور فزاینده ای از شبیه سازی صوتی مبتنی بر هوش مصنوعی و فناوری ویدیوی جعلی برای فریب افراد و سازمان ها استفاده می کنند.

به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، بلومبرگ گزارش داد که مجرمان سایبری از شبیه سازی صدای مبتنی بر هوش مصنوعی و فناوری ویدیوی جعلی دیپ فیک برای فریب دادن افراد و سازمان ها استفاده می کنند.

در یک حادثه اخیر، یک مدیر عامل پس از دریافت تماسی که به نظر می رسید از یک منبع قابل اعتماد است، 249 هزار دلار وجه را منتقل کرد، اما بعدا متوجه شد که این تماس توسط هوش مصنوعی ایجاد شده است.

اودی موکادی، رئیس شرکت امنیت سایبری نرم افزاری سایبر آرک (CyberArk Software)، با چنین حمله ای مواجه شده است.

در یک پیام ویدیویی از تیم مایکروسافت در ماه جولای، موکادی زمانی که با نسخه‌ای از خود که به طرز وحشتناکی متقاعدکننده بود مواجه شد، غافلگیر شد، حرکتی که بعداً مشخص شد که یکی از همکارانش با او شوخی کرده بوده است.

موکادی به بلومبرگ گفت:

من شوکه شدم. من آنجا بودم، با یک هودی بر تن و دفترم در پس‌زمینه بود.

در حالی که شرکت‌های کوچک‌تر ممکن است کارمندانی با فن‌آوری داشته باشند که می‌توانند دیپ‌فیک‌ها را شناسایی کنند، سازمان‌های بزرگ‌تر در برابر چنین حملاتی آسیب‌پذیرتر هستند، زیرا ممکن است روابط کاری صمیمی یا درک تکنولوژیکی برای تشخیص واقعی بودن کسی وجود نداشته باشد.

گال زرور، مدیر تحقیقات سایبر آرک که این شیرین کاری را بر سر موکادی انجام داد، به بلومبرگ گفت:

اگر ما به اندازه شرکت آی بی ام (IBM) یا والمارت (Walmart) یا تقریباً هر شرکت بزرگ عضو فورچون 500 (Fortune 500) بودیم، دلیل موجهی برای نگرانی وجود داشت؛ چرا که مثلا شاید کارمند شماره 30005 فریب خورده باشد.

کارشناسان امنیت سایبری نسبت به عواقب یک کپی هوش مصنوعی شبیه به انسان از مدیر اجرایی که داده ها و اطلاعات حیاتی شرکت مانند رمز عبور را کشف می کند، هشدار داده اند.

در ماه آگوست، ماندیانت (Mandiant)، یک شرکت امنیت سایبری متعلق به گوگل، اولین نمونه‌های فناوری ویدیوی دیپ‌فیک را که به صراحت برای کلاهبرداری‌های فیشینگ طراحی و فروخته شده بود، به گفته بلومبرگ فاش کرد.

این پیشنهادها که در انجمن‌های هکرها و کانال‌های تلگرام به زبان‌های انگلیسی و روسی تبلیغ می‌شوند، قول می‌دهند که ظاهر افراد را تقلید کنند و اثربخشی اخاذی، کلاهبرداری یا طرح‌های مهندسی اجتماعی را افزایش دهند.

دیپ فیک هایی که جعل شخصیت های عمومی شناخته شده هستند نیز به طور فزاینده ای منتشر شده اند.

هفته گذشته، خبرگزاری ان بی سی بیش از 50 ویدیو را در پلتفرم‌های رسانه‌های اجتماعی بررسی کرد که در آن‌ها دیپ‌فیک‌های افراد مشهور از خدمات ساختگی تبلیغ می‌کردند.

این ویدئوها ظاهر تغییر یافته چهره‌های برجسته‌ای مانند ایلان ماسک، اما همچنین چهره‌های رسانه‌ای مانند گیل کینگ، مجری اخبار شبکه سی‌بی‌اس و تاکر کارلسون مجری سابق فاکس نیوز را نشان می‌داد که همگی به دروغ از یک پلتفرم سرمایه‌گذاری که وجود خارجی نداشت، حمایت می‌کردند.

دیپ فیک، همراه با سایر فناوری‌هایی که به سرعت در حال گسترش هستند، به افزایش جرایم سایبری کمک کرده‌ است.

در سال 2022، خسارت 10.2 میلیارد دلاری ناشی از کلاهبرداری های سایبری به اف بی آی گزارش شد که نسبت به سال قبل از آن که 6.9 میلیارد دلار بود، افزایش چشمگیری داشته است.

همانطور که قابلیت‌های هوش مصنوعی همچنان بهبود می‌یابد و کلاهبرداری‌ها پیچیده‌تر می‌شوند، کارشناسان به‌ویژه نگران عدم توجه به دیپ‌فیک‌ها در میان سایر تهدیدات سایبری هستند.

جف پولارد، تحلیلگر موسسه تحقیقاتی فارستر (Forrester) در ماه آوریل به بلومبرگ گفت:

من هر روز با رهبران امنیتی صحبت می کنم. آنها نگران هوش مصنوعی مولد هستند. اما وقتی صحبت از چیزی مانند تشخیص دیپ فیک می شود، این چیزی نیست که بودجه را صرف آن کنند. آنها مشکلات بسیار دیگری دارند.

منبع:

تازه ترین ها
اعتراض
1404/09/23 - 15:57- اروپا

اعتراض به ممنوعیت پلتفرم روبلاکس در روسیه

ممنوعیت پلتفرم بازی روبلاکس در روسیه، اعتراض کم‌سابقه‌ای را به دنبال داشت.

چرا
1404/09/23 - 15:48- هوش مصنوعي

چرا مغز شما در یادگیری از هوش مصنوعی بهتر است؟

دانشمندان دانشگاه پرینستون به تازگی کشف کرده‌اند که مغز انسان از “بلوک‌های شناختی قابل استفاده مجدد” برای ایجاد رفتارها و مهارت‌های جدید استفاده می‌کند.

ربات
1404/09/23 - 15:46- ابزارهای هوشمند

ربات انسان نما به یک یوتیوبر شلیک کرد!

ربات های انسان نما به سرعت وارد دفاتر اداری، محیط های خدمات درمانی و فضاهای عمومی می شوند که این موضوع نگرانی هایی درباره استفاده از آنها در دنیای واقعی را به دنبال دارد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.