about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

یک تحقیق جدید نشان می‌دهد مرز بین صدای انسان و هوش مصنوعی کاملا از بین رفته است. این پیشرفت شگفت‌انگیز چه خطراتی در زمینه امنیت و کلاهبرداری ایجاد می‌کند؟

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ یک تحقیق علمی جدید نشان می‌دهد که دیگر نمی‌توان به سادگی تفاوت میان صدای انسان و هوش مصنوعی را تشخیص داد و اکثر افراد درء شناسایی صداهای دیپ‌فیک (Deepfake) شکست می‌خورند. این در حالی است که تا همین چند سال پیش، صداهای رباتیک و بی‌روح دستیارهای صوتی مانند سیری و الکسا، این تصور را ایجاد می‌کرد که تشخیص صدای واقعی از ماشینی کار ساده‌ای است.

بر اساس این مطالعه که در ژورنال معتبر PLoS One منتشر شده، محققان دریافتند وقتی افراد به صدای واقعی انسان‌ها و نسخه شبیه‌سازی شده آنها توسط هوش مصنوعی گوش می‌دهند، دیگر قادر به شناسایی دقیق نسخه واقعی از جعلی نیستند. نادین لاوان، نویسنده اصلی این تحقیق، می‌گوید رسیدن فناوری به این نقطه که بتواند گفتاری کاملا طبیعی و شبیه به انسان تولید کند، فقط مسئله زمان بود.

وقتی مرز بین صدای انسان و هوش مصنوعی محو می‌شود

در این پژوهش، محققان ۸۰ نمونه صدا (۴۰ صدای واقعی و ۴۰ صدای تولید شده توسط AI) را به شرکت‌کنندگان ارائه کردند. نتایج نشان داد صداهای هوش مصنوعی که از ابتدا و بدون الگوی انسانی ساخته شده بودند، هنوز تا حدی قابل تشخیص هستند و تنها در ۴۱ درصد موارد با صدای انسان اشتباه گرفته شدند.

اما چالش اصلی زمانی بود که پای صداهای شبیه‌سازی شده از روی صدای واقعی انسان به میان آمد. در این حالت، ۵۸ درصد از صداهای دیپ‌فیک به اشتباه به عنوان صدای انسان شناسایی شدند. این آمار تقریبا با آمار تشخیص صحیح صدای واقعی انسان (۶۲ درصد) برابر بود. محققان نتیجه گرفتند که از نظر آماری، دیگر تفاوتی در توانایی ما برای تشخیص صدای واقعی از کلون دیپ‌فیک آن وجود ندارد.

خطرات دیپ‌فیک صوتی: از کلاهبرداری تا آشوب اجتماعی

این نتایج پیامدهای عمیقی برای امنیت، اخلاق و حق کپی‌رایت دارد. مجرمان می‌توانند با شبیه‌سازی صدای شما، به راحتی پروتکل‌های احراز هویت صوتی در بانک‌ها را دور بزنند یا نزدیکان شما را برای انتقال پول فریب دهند. پیش از این نیز مواردی مانند کلاهبرداری ۱۵ هزار دلاری از یک مادر با تقلید صدای گریه دخترش اتفاق افتاده است.

علاوه بر این، از صداهای جعلی می‌توان برای ساختن مصاحبه‌ها یا بیانیه‌های دروغین از سوی سیاستمداران و افراد مشهور استفاده کرد. این کار می‌تواند با هدف بی‌اعتبار کردن افراد یا تحریک ناآرامی‌های اجتماعی انجام شود. نکته نگران‌کننده این است که محققان برای ساخت این صداهای فوق‌العاده واقعی، از نرم‌افزارهای تجاری موجود در بازار و تنها با چهار دقیقه فایل صوتی از صدای یک فرد استفاده کردند که نشان می‌دهد مرز میان صدای انسان و هوش مصنوعی بسیار باریک شده است.

منبع:

موضوع:

تازه ترین ها
محققان
1404/07/13 - 19:52- هوش مصنوعي

محققان ماوس گیمینگ را با هوش مصنوعی به ابزار شنود صدای کاربران تبدیل کردند

محققان امنیتی نشان دادند که می‌توان با استفاده از هوش مصنوعی، سنسور حرکت یک ماوس گیمینگ پیشرفته را به یک میکروفون مخفی تبدیل کرد و مکالمات کاربر را از طریق لرزش‌های میز کار شنود کرد.

عجیب
1404/07/13 - 19:49- هوش مصنوعي

عجیب ترین کاربردهای هوش مصنوعی که فکرش را هم نمی‌کنید!

هوش مصنوعی فقط برای کارهای جدی نیست. از همسریابی برای گاوها تا پیشگویی آینده و ساخت خانه جن‌زده، با کاربردهای عجیب هوش مصنوعی آشنا شوید که شما را شگفت‌زده می‌کند.

هوش
1404/07/13 - 19:45- هوش مصنوعي

هوش مصنوعی، کلید پایداری و تحول در مدیریت شهری

رئیس سازمان نظام صنفی رایانه‌ای گفت: شیوه‌های سنتی دیگر پاسخگوی نیاز شهرهای در حال رشد نیستند و تنها با تکیه بر ابزارهایی مانند هوش مصنوعی می‌توان به شهری پایدار، هوشمند و کارآمد دست یافت.