about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

اکنون یوتیوب قصد دارد تا با ابزار هوش‌مصنوعی جدید خود، به جنگ این نوع ویدیوها برود.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ حتماً شما هم در شبکه‌های اجتماعی ویدیوهای جعلی با استفاده از DeepFake را دیده‌اید. ویدیوهایی که با سوء‌استفاده از چهره و هویت افراد، محتوای جعلی را با هدف‌های مختلف منتشر می‌کنند. اکنون یوتیوب قصد دارد تا با ابزار هوش‌مصنوعی جدید خود، به جنگ این نوع ویدیوها برود.

به گزارش وب‌سایت PhoneArena، یوتیوب قصد دارد تا یکی از بزرگ‌ترین مشکلات تولید‌کنندگان محتوا را حل کند و امکان محافظت از چهره آنان را فراهم کند.

این قابلیت که Likeness Detection Tool نام دارد، وظیفه شناسایی شباهت‌های مصنوعی در ویدیوها را به عهده دارد. بر اساس توضیحات یوتیوب، این قابلیت به سازندگان محتوا اجازه می‌دهد ویدیوهای تولید یا تغییر یافته با هوش مصنوعی را که بدون مجوز از چهره آن‌ها استفاده می‌کنند، شناسایی و برای حذفشان اقدام کنند.

گام اول در برابر دیپ‌فیک‌ها

به گفته یوتیوب، این ابزار به تولیدکنندگان عضو برنامه همکاری یوتیوب (YouTube Partner Program) اجازه می‌دهد تا ویدیوهایی را که به‌صورت غیرمجاز از تصویرشان استفاده کرده‌اند، شناسایی کنند. تولید کنندگان محتوا می‌توانند با دریافت هشدار درباره این ویدیوها، درخواست حذف آن‌ها را مستقیماً ثبت کنند.

البته دسترسی به این قابلیت به‌صورت تدریجی آغاز شده و قرار است تا ژانویه ۲۰۲۶ (بهمن 1404)، تمامی تولیدکنندگان دارای درآمد در یوتیوب به آن دسترسی پیدا کنند.

روش استفاده از ابزار جدید

این قابلیت از بخش Content Detection در بخش YouTube Studio کانال قرار دارد. البته برای استفاده از آن، تولید‌کنندگان محتوا باید ابتدا فرآیند تأیید هویت را انجام دهند که شامل ارسال کارت شناسایی و یک ویدیوی سلفی کوتاه است.

پس از تأیید، یوتیوب به‌صورت خودکار تمامی ویدیوهایی را که از چهره آن‌ها در محتوای تولیدشده با هوش مصنوعی استفاده شده، شناسایی و اطلاع‌رسانی می‌کند.

کاربران می‌توانند با مراجعه به در پنل مدیریت، فهرستی از ویدیوهای غیرمجاز به همراه اطلاعاتی مانند نام کانال، عنوان و تعداد بازدیدها را مشاهده کنند. همچنین بخشی از ویدیو که چهره فرد در آن ظاهر شده، مشخص می‌گردد تا حذف یا گزارش آن ساده‌تر باشد.

چالش‌ها و دغدغه‌های حریم خصوصی

اگرچه این ابزار، گام مهمی در مقابله با دیپ‌فیک به شمار می‌رود، اما برخی کاربران نسبت به ارسال داده‌های بیومتریک خود مانند چهره و کارت شناسایی به یوتیوب ابراز نگرانی کرده‌اند. حتی در نظرسنجی منتشر شده همراه این ویژگی، برخی کاربران اعلام کردند تنها در صورتی حاضر به استفاده از آن هستند که به شرکت ارائه‌دهنده اعتماد کامل داشته باشند.

در نهایت باید گفت که با رشد سریع ابزارهایی مانند Sora، پیش‌بینی می‌شود که مشکل ویدیوهای جعلی در آینده شدت بگیرد. اگرچه این ابزار جدید یوتیوب می‌تواند این مشکل را کمی کاهش دهد، اما باید به این نکته نیز اشاره کرد که این ویژگی بیشتر به کار افراد مشهور می‌آید و افراد معمولی بیشتر از معرض آسیب‌های این ویدیوهای جعلی هستند.

شاید بهتر باشد که یوتیوب در کنار این ابزار، محدودیت‌ها و برچسب‌های هشدار واضحی را برای ویدیوهای تولیدشده با هوش مصنوعی قرار دهد تا بینندگان ویدیو از جعلی بودن آن آگاه شوند.

موضوع:

تازه ترین ها
توقف
1404/11/11 - 15:18- هوش مصنوعي

توقف سرمایه‌گذاری انویدیا در اوپن‌اِی‌آی

طرح انویدیا برای سرمایه‌گذاری تا سقف ۱۰۰ میلیارد دلار در شرکت اوپن‌اِی‌آی متوقف شد.

توسعه‌
1404/11/11 - 14:40- هوش مصنوعي

توسعه‌ بخش هوش مصنوعی در ارمنستان

ارمنستان در حال تلاش‌ برای توسعه بخش هوش مصنوعی خود است.

روسیه،
1404/11/11 - 14:39- جنگ سایبری

روسیه، بزرگ‌ترین تهدید سایبری علیه لتونی

سازمان امنیتی لتونی هشدار داده است که حملات سایبری و کارزارهای خرابکارانه روسیه علیه این کشور هیچ نشانه‌ای از کاهش نشان نمی‌دهد، هرچند بیشتر این حوادث تاکنون نتوانسته‌اند اختلال جدی ایجاد کنند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.