چالش در تأیید رسانههای تولید شده توسط هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان، محققان مایکروسافت هشدار دادند که ویرایشهای ظریف میتوانند محتوای واقعی را جعلی یا برعکس جلوه دهند و بر لزوم منبع معتبر رسانه تأکید کردند.
در عصر جعل عمیق و محتوای دستکاریشده توسط هوش مصنوعی، تشخیص اینکه چه مطلبی واقعی است، به طور فزایندهای پیچیده شده است.
گزارش مایکروسافت با عنوان ((صداقت و احراز هویت رسانهای)) روشهای فعلی تأیید، محدودیتهای آنها و راههای افزایش اعتماد به رسانههای دیجیتال را بررسی میکند.
این مطالعه تأکید میکند که هیچ راهحل واحدی نمیتواند از فریب دیجیتال جلوگیری کند. تکنیکهایی مانند ردیابی منشأ، واترمارک و اثر انگشت دیجیتال میتوانند زمینه مفیدی در مورد منشأ یک فایل رسانهای، ابزارهای ایجاد و اینکه آیا تغییر داده شده است یا خیر، ارائه دهند.
مایکروسافت با تأسیس ائتلاف منشأ و اصالت محتوا (C2PA) برای استانداردسازی احراز هویت رسانه در سطح جهانی، پیشگام این فناوریها بوده است.
این گزارش همچنین به خطرات حملات اجتماعی - فنی میپردازد، جایی که حتی ویرایشهای ظریف میتوانند نتایج احراز هویت را برای گمراهکردن عموم دستکاری کنند.
محققان بررسی کردند که چگونه اطلاعات منشأ میتوانند در محیطهای مختلف، از سیستمهای با امنیت بالا گرفته تا دستگاههای آفلاین، بادوام و قابلاعتماد باقی بمانند و چالش حفظ تأیید مداوم را برجسته کردند.
با رایج شدن محتوای تولید یا ویرایششده توسط هوش مصنوعی، منبع امن رسانه به طور فزایندهای برای رسانههای خبری، چهرههای عمومی، دولتها و کسبوکارها اهمیت پیدا میکند.
منبع قابلاعتماد به مخاطبان کمک میکند تا محتوای دستکاریشده را تشخیص دهند و تحقیقات مداوم، نمایشهای تأیید واضحتر و کاربردیتری را برای عموم هدایت میکند.