about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

انتشار شده در تاریخ

تشخیص دیپ‌فیک به کمک هوش مصنوعی

کارشناسان معتقدند که هوش مصنوعی به تشخیص ویدئوهای دیپ‌فیک کمک می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ محققان دانشگاه استانفورد (Stanford) و برکلی (UC Berkeley) برنامه‌‌ای را طراحی کرده‌اند که از هوش مصنوعی برای تشخیص ویدئوهای دیپ‌فیک استفاده می‌کند.

براساس مقاله‌ای تحت عنوان «تشخیص ویدئوهای دیپ‌فیک از عدم تطبیق صداهای مشابه»، گفته می‌شود که این برنامه با تشخیص عدم تطابق دقیقه در صداهای ایجاد شده از سوی مردم و شکل دهان آنها، 80 درصد موارد جعلی را تشخیص می‌دهد.

ویدئوهای دیپ‌فیک را می‌توان با استفاده از فناوری‌های تغییر چهره یا همگام‌سازی لب تهیه کرد. فیلم‌های معاوضه چهره می‌توانند قانع کننده و در عین حال خام باشند و آثار دیجیتالی یا تصویری برجای بگذارند که کامپیوتر می‌تواند آنها را تشخیص دهد.

همگام‌سازی لب ظریف و تشخیص آن دشوارتر است. این فناوری قسمت کوچک‌تری از تصویر را دستکاری و سپس حرکات لب را ترکیب می‌کند که با روشی مطابق با دهان فرد در صورت گفتن کلمات خاص، بسیار نزدیک است. تیم تحقیقاتی گفت که با داشتن نمونه‌های کافی از تصویر و صدای یک فرد سازنده یک فیلم دیپ‌فیک می‌تواند یک تصویر را دستکاری کند تا هر چیزی را بگوید.

تیم تحقیقات دانشگاهی، ابزاری را برای جستجوی اشکال دهانی (visemes) و صداهای آوایی (phenomes) ایجاد کرد. این ابزار با شبکه عصبی مبتنی بر هوش مصنوعی ویدئویی از باراک اوباما، رئیس جمهور سابق ایالات متحده را آزمایش کرد. شبکه عصبی بیش از 90 درصد همگام‌سازی لب از جمله اوباما را تشکیل می‌دهد.

اگرچه این برنامه احتمالاً به تشخیص ناهنجاری‌های بینایی کمک می‌کند، اما تشخیص دیپ‌فیک مانند بازی موش و گربه است. به گفته تیم تحقیقاتی، با پیشرفت روش‌های دیپ‌فیک، سرنخ‌های کمتری نیز باقی خواهد ماند. دیپ‌فیک می‌تواند منجر به افزایش اطلاعات غلط شود که تشخیص آن بسیار دشوارتر خواهد بود.

منبع:

تازه ترین ها
دیگر
1404/07/13 - 19:26- هوش مصنوعي

دیگر نمی‌توانید صدای انسان را از هوش مصنوعی تشخیص دهید!

یک تحقیق جدید نشان می‌دهد مرز بین صدای انسان و هوش مصنوعی کاملا از بین رفته است. این پیشرفت شگفت‌انگیز چه خطراتی در زمینه امنیت و کلاهبرداری ایجاد می‌کند؟

ضعف
1404/07/13 - 19:21- بررسی تخصصی

ضعف دفاع سایبری، سد راه پیشرفت دیجیتال کره

کره جنوبی به‌خاطر اینترنت پرسرعت و پوشش پهنای باند بالا مشهور است، اما همین دستاوردها آن را به هدف اصلی هکرها مبدل کرده است.

جذب
1404/07/13 - 19:18- بررسی تخصصی

جذب نیروهای امنیت سایبری در «کافه اشتغال»

رئیس هیئت‌مدیره انجمن افتا گفت: با توجه به کمبود نیروی متخصص سایبری، تمهیداتی برای جذب نیروی متخصص و دانشجوی این حوزه فراهم شده است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.