about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

پژوهشگران شرکت بایت‌دنس، مالک تیک‌تاک، یک سیستم هوش مصنوعی جدید به نام OmniHuman-1 را معرفی کرده‌اند که قادر است واقعی‌ترین ویدیو های دیپ‌ فیک تا به امروز را تولید کند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ پژوهشگران شرکت بایت‌دنس، مالک تیک‌تاک، یک سیستم هوش مصنوعی جدید به نام OmniHuman-1 را معرفی کرده‌اند که قادر است واقعی‌ترین ویدیو های دیپ‌ فیک تا به امروز را تولید کند.

دیپ‌ فیک اکنون به یک فناوری رایج تبدیل شده است. اپلیکیشن‌های زیادی وجود دارند که می‌توانند افراد را به عکس اضافه کنند یا باعث شوند کسی چیزی بگوید که هرگز نگفته است. اما اکثر دیپ‌ فیک ها، به‌ویژه در ویدیو ها، هنوز نتوانسته‌اند دره‌ وهم (Uncanny Valley) را پشت سر بگذارند. معمولاً نشانه‌هایی وجود دارد که نشان می‌دهد از هوش مصنوعی در آن استفاده شده است. با این حال، OmniHuman-1 – حداقل براساس نمونه‌های گلچین‌شده‌ای که تیم ByteDance منتشر کرده – این مشکل را برطرف کرده است.

به گفته پژوهشگران بایت دنس، OmniHuman-1 تنها با یک تصویر مرجع و یک فایل صوتی، مانند گفتار یا آواز، می‌تواند کلیپی با هر طولی تولید کند. نسبت ابعاد ویدئوی خروجی و حتی «تناسب بدن» سوژه – یعنی مقدار بدن نشان‌داده‌شده در فیلم جعلی – نیز قابل تنظیم هستند.

این سیستم با 19000 ساعت محتوای ویدئویی از منابع نامشخص آموزش دیده است. OmniHuman-1 حتی می‌تواند ویدئوهای موجود را ویرایش کند، از جمله تغییر حرکات اندام‌های افراد. نتیجه نهایی بسیار واقعی و قانع‌کننده است.

OmniHuman-1 نیز بی‌نقص نیست، اما …

البته OmniHuman-1 بی‌نقص نیست. تیم ByteDance اعلام کرده است که تصاویر مرجع با کیفیت پایین نتایج خوبی ارائه نمی‌دهند و سیستم در مواجهه با برخی ژست‌ها با مشکل مواجه می‌شود. به عنوان مثال، در یکی از ویدئوها حرکات غیرطبیعی دست در هنگام گرفتن لیوان نوشیدنی دیده می‌شود.

با این وجود، OmniHuman-1 بسیار پیشرفته‌تر از تکنیک‌های دیپ‌فیک قبلی است و احتمالاً نشان‌دهنده آینده فناوری‌های مشابه خواهد بود. هرچند ByteDance هنوز این سیستم را به‌صورت عمومی عرضه نکرده است، جامعه هوش مصنوعی معمولاً در مهندسی معکوس مدل‌های این‌چنینی زمان زیادی صرف نمی‌کند.

در سال گذشته، دیپ‌فیک‌های سیاسی به‌سرعت در سراسر جهان گسترش یافتند. در روز انتخابات تایوان، گروهی وابسته به حزب کمونیست چین یک فایل صوتی جعلی از یک سیاستمدار منتشر کرد که در آن از یک نامزد طرفدار چین حمایت می‌کرد. در مولداوی، ویدئوهای دیپ‌فیکی رئیس‌جمهور این کشور، مایا ساندو، را نشان می‌داد که از مقام خود استعفا می‌دهد. همچنین در آفریقای جنوبی، یک دیپ‌فیک از رپر معروف، امینم، در حال حمایت از یک حزب مخالف دولت، پیش از انتخابات این کشور منتشر شد.

دیپ‌فیک‌ها به طور فزاینده‌ای برای انجام جرایم مالی نیز استفاده می‌شوند. مصرف‌کنندگان با دیپ‌فیک‌هایی از افراد مشهور که فرصت‌های سرمایه‌گذاری جعلی ارائه می‌دهند، فریب می‌خورند. شرکت‌ها نیز توسط افرادی که از دیپ‌فیک برای جعل هویت استفاده می‌کنند، میلیون‌ها دلار متضرر می‌شوند. براساس گزارش Deloitte، محتواهای تولیدشده با هوش مصنوعی در سال 2023 بیش از 12 میلیارد دلار خسارت ناشی از کلاهبرداری به بار آوردند و این رقم در ایالات متحده تا سال 2027 ممکن است به 40 میلیارد دلار برسد.

در فوریه گذشته، صدها نفر از جامعه هوش مصنوعی نامه‌ای سرگشاده برای تنظیم مقررات سخت‌گیرانه علیه دیپ‌فیک امضا کردند. در غیاب قانونی فدرال در ایالات متحده که دیپ‌فیک‌ها را جرم‌انگاری کند، بیش از 10 ایالت قوانین علیه جعل هویت با کمک هوش مصنوعی وضع کرده‌اند. یک قانون در کالیفرنیا – که فعلاً متوقف شده است – اولین موردی خواهد بود که به قضات اجازه می‌دهد دستور حذف دیپ‌فیک‌ها را صادر کرده یا جریمه‌های مالی برای انتشاردهندگان آن‌ها تعیین کنند.

متأسفانه، تشخیص دیپ‌فیک‌ها دشوار است. در حالی که برخی شبکه‌های اجتماعی و موتورهای جستجو اقداماتی برای محدودکردن انتشار آن‌ها انجام داده‌اند، حجم محتوای دیپ‌فیک آنلاین همچنان با سرعت هشداردهنده‌ای در حال افزایش است.

در یک نظرسنجی که در ماه می 2024 توسط شرکت احراز هویت Jumio انجام شد، 60 درصد از مردم اعلام کردند که در سال گذشته با یک دیپ‌فیک مواجه شده‌اند. 72 درصد از پاسخ‌دهندگان نیز اظهار داشتند که به طور روزانه نگران فریب‌خوردن توسط دیپ‌فیک‌ها هستند و اکثریت از تصویب قوانینی برای مقابله با گسترش محتوای جعلی تولیدشده توسط هوش مصنوعی حمایت کردند.

موضوع:

تازه ترین ها
اعتراض
1404/09/23 - 15:57- اروپا

اعتراض به ممنوعیت پلتفرم روبلاکس در روسیه

ممنوعیت پلتفرم بازی روبلاکس در روسیه، اعتراض کم‌سابقه‌ای را به دنبال داشت.

چرا
1404/09/23 - 15:48- هوش مصنوعي

چرا مغز شما در یادگیری از هوش مصنوعی بهتر است؟

دانشمندان دانشگاه پرینستون به تازگی کشف کرده‌اند که مغز انسان از “بلوک‌های شناختی قابل استفاده مجدد” برای ایجاد رفتارها و مهارت‌های جدید استفاده می‌کند.

ربات
1404/09/23 - 15:46- ابزارهای هوشمند

ربات انسان نما به یک یوتیوبر شلیک کرد!

ربات های انسان نما به سرعت وارد دفاتر اداری، محیط های خدمات درمانی و فضاهای عمومی می شوند که این موضوع نگرانی هایی درباره استفاده از آنها در دنیای واقعی را به دنبال دارد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.