about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

انتشار شده در تاریخ

مبارزه ی دارپا با محتوای دستکاری شده

سازمان دارپا در حال ایجاد سامانه ای است که می تواند محتوای ویدئویی و تصویری دستکاری شده را شناسایی کند.

به گزارش کارگروه شبکه های اجتماعی سایبربان، به نقل از «techcrunch»؛ سازمان دارپا به منظور مبارزه با اخبار و محتوای جعلی به تازگی سه قرار داد مختلف را با موسسه خصوصی تحقیقاتی استنفورد (SRI International) امضا کرد.

دارپا در قالب پروژه ای به نام «Media Forensics program» در حال ایجاد ابزاری است که می تواند ویدئو و تصاویری که به صورت معنا داری تغییر کرده از محتوای اصلی خود فاصله گرفته اند را شناسایی کند. به این گونه تغییر محتوا «دیپ فیک » (Deepfakes) گفته می شود. این نرم افزار انجام تجزیه و تحلیل های مورد نظر را ساده تر و با هزینه ای کمتر از محصولات امروزی انجام خواهد داد.

اگر طرح مذکور با موفقیت به انجام برسد، محتوای دستکاری شده به صورت خودکار شناسایی می شوند. همچنین نوع این دستکاری نیز مشخص خواهد شد.

ایده ی اولیه طرح یاد شده در سال 2015 مطرح و توسعه ی آن در 2016 آغاز شد و تکمیل آن تا 2020 به زمان نیاز دارد. موسسه ی تحقیقاتی استنفورد به منظور برای ایجاد ابزار مورد بحث دانشگاه آمستردام گروه حریم خصوصی و امنیت بیومتریک موسسه تحقیقاتی ایدیاپ سوییس (Idiap Research Institute) همکاری می کند.

محققان از 4 تکنیک مختلف برای شناسایی اختلافات صوتی و تصویر موجود در ویدئوها استفاده خواهند کرد. این تناقض ها شامل هماهنگی حرکات لب با گفتگوی در حال انجام، تطبیق تشخیص عدم صحت صحنه مانند اندازه ی اتاق، شناسایی فریم و نوع محتوا هستند.

پژوهشگران توانستند، در زمان انجام آزمایش های اولیه ی سامانه ی بالا در ژوئن گذشته، اختلاف صدا و صحنه را شناسایی کنند. این نوآوری با دقت 75 درصدی توانسته بود صدها ویدئو را مورد بررسی قرار دهد. این ارزیابی در ماه می 2018 با ابعاد بزرگ تری تکرار خواهد شد.


  1. دیپ فیک ترکیبی عبارات یادگیری عمیق و جعلی است. نوعی الگوریتم هوش مصنوعی که تصاویر و ویدئوی مورد نظر را روی محتوای اصلی قرار داده و آن را تغییر می دهد.
تازه ترین ها
تعمیق
1404/09/24 - 18:25- اروپا

تعمیق روابط اوکراین و استونی در حوزه امنیت سایبری

اوکراین همکاری خود را با استونی در زمینه حکومتداری دیجیتال و امنیت سایبری عمیق‌تر کرد.

هشدار
1404/09/24 - 16:37- اروپا

هشدار رئیس ام آی 6 درباره افزایش فشار بر پوتین

رئیس جدید سرویس اطلاعات مخفی بریتانیا در نخستین سخنرانی عمومی خود در روز دوشنبه درباره تهدید حاد ناشی از روسیه‌ای «تهاجمی، توسعه‌طلب و تجدیدنظرطلب» هشدار خواهد داد.

تداوم
1404/09/24 - 16:28- آمریکا

تداوم هک گسترده شبکه‌های مخابراتی آمریکا توسط چین

مارک وارنر، سناتور دموکرات از ایالت ویرجینیا، اعلام کرد که چین همچنان در حال هک شبکه‌های مخابراتی ایالات متحده است؛ حمله‌ای سایبری که به این کشور امکان می‌دهد به ارتباطات تقریباً همه آمریکایی‌ها دسترسی پیدا کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.