about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

براساس تحقیقات جهانی جدید شرکت امنیتی مک‌آفی، استرالیایی‌ها به‌طور فزاینده‌ای نگران تأثیر دیپ‌فیک بر انتخابات هستند.

به گزارش کارگروه بین‌الملل سایبربان؛ تحقیقات جهانی جدید از شرکت امنیتی مک‌آفی (McAfee) افزایش شدید نگرانی در مورد فناوری‌های هوش مصنوعی (AI) مانند دیپ‌فیک‌ها را نشان می‌دهد که بر سال عظیم انتخابات ۲۰۲۴ تأثیر منفی می‌گذارند.

براساس این تحقیق، که اوایل سال 2024 از 7000 نفر در سراسر جهان نظرسنجی شد، 43 درصد استرالیایی‌ها مداخله در انتخابات را به عنوان یک نگرانی کلیدی در مورد تأثیر فناوری مبتنی بر هوش مصنوعی ذکر کردند.

این افزایش 66 درصدی در یک دوره 12 ماهه است.

تایلر مک‌گی (Tyler McGee)، رئیس مک‌آفی در آسیا و اقیانوسیه، گفت :

«دیپ‌فیک می‌تواند توسط هر کسی در یک بعد از ظهر ساخته شود. ابزارهای ایجاد صدای شبیه‌سازی‌شده و ویدیوی دیپ‌فیک به‌راحتی در دسترس هستند و تنها چند ساعت طول می‌کشد تا مهارت پیدا کنند و فقط چند ثانیه طول می‌کشد تا شما را متقاعد کند که همه چیز واقعی است.»

این مشکل با سختی یافتن محتوای هوش مصنوعی مانند دیپ‌فیک تشدید می‌شود.

79 درصد از کاربران استرالیایی رسانه‌های اجتماعی که مورد بررسی قرار گرفتند، اعلام کردند که تشخیص محتوای هوش مصنوعی آنلاین برایشان مشکل است و حتی بدتر، فقط 25 درصد مطمئن هستند که می‌توانند تماس یک دوست یا خویشاوند را تأیید کنند.

در مورد تجربه واقعی محتوای دیپ‌فیک، 40 درصد از پاسخ‌دهندگان استرالیایی گفتند که حداقل برخی از این محتواها را دیده‌اند، در حالیکه 21 درصد گفتند که با کلاهبرداری عمیق‌فیک مواجه و 7 درصد در واقع قربانی یک کلاهبرداری شده‌اند.

از میان افرادی که با چنین کلاهبرداری‌هایی مواجه شده‌اند، 28 درصد اظهار داشتند که این نوعی کلاهبرداری صوتی با هوش مصنوعی است، در حالیکه 24 درصد دیگر گفتند که خودشان برای فریب کسی که می شناسند جعلی شده‌اند.

سلبریتی‌ها نیز هدف محبوبی هستند، به طوری که 65 درصد استرالیایی‌ها اعتراف کرده‌اند که با محتوای افراد مشهور جعلی مواجه شده‌اند و حتی متوجه نبوده‌اند.

مک‌گی توضیح داد :

«این سؤالات مهمی را در مورد صحت محتوا ایجاد می‌کند، به‌ویژه در سالی که بسیاری از انتخابات در حال برگزاری هستند، از جمله اینجا در استرالیا. دموکراسی امسال به لطف هوش مصنوعی در رأی‌گیری در کانون توجه است. تقریباً 2 میلیارد نفر در سال 2024، از جمله در 8 کشور از 10 کشور پرجمعیت جهان، به نوعی رأی خواهند داد.»

منبع:

تازه ترین ها
تبدیل
1404/03/27 - 14:14- هوش مصنوعي

تبدیل سیگنال‌های مغزی به کلمات توسط هوش مصنوعی

دانشمندان با استفاده از هوش مصنوعی سیگنال‌های مغزی را به کلمات تبدیل می‌کنند.

برنامه
1404/03/27 - 13:44- هوش مصنوعي

برنامه انویدیا برای اتحادیه اروپا

درخواست مدیرعامل انویدیا، برای هوش مصنوعی مستقل در میان رهبران اروپایی مورد توجه قرار گرفته است.

همکاری
1404/03/27 - 12:05- اروپا

همکاری ارتش سوئد با شرکت‌ تلیا و اریکسون

ارتش سوئد برای تقویت فناوری دفاعی به برنامه نوآوری 5G تلیا و اریکسون پیوست.