about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

هوش مصنوعی اگرچه با قابلیت‌های متنوع خود، نگاه‌های زیادی را به خود جلب کرده اما در کنار این مزیت‌ها، نگرانی‌هایی نیز درباره مشکلات و معایب آن وجود دارد که یکی از آنها، گسترش اخبار جعلی یا همان فیک نیوزهاست.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ هوش مصنوعی اگرچه با قابلیت‌های متنوع خود، نگاه‌های زیادی را به خود جلب کرده اما در کنار این مزیت‌ها، نگرانی‌هایی نیز درباره مشکلات و معایب آن وجود دارد که یکی از آنها، گسترش اخبار جعلی یا همان فیک نیوزهاست.

در واقع، ابزارهای هوش مصنوعی می‌توانند با دستکاری در مقالات و مطالب منتشرشده و همچنین تغییر اسامی، تاریخ‌ها و آمارها، به گسترش فیک نیوزها که این روزها به چالشی لاینحل تبدیل شده، دامن بزند.

همچنین مدل‌های پیشرفته هوش مصنوعی می‌توانند یک مطلب و یا مقاله را از صفر تا صد تنظیم کنند. به همین جهت، نگرانی‌هایی درباره تاثیر این فناوری بر انتخابات آینده و همچنین اعتماد به گزارش‌های درباره تغییرات اقلیمی‌شکل گرفته است.

اما به گفته برخی کارشناسان، می‌توان از این فناوری برای تحلیل درستی و یا نادرستی برخی اخبار و مقالات منتشرشده نیز بهره برد. بدین معنی که می‌توان با کمک ابزارهای هوش مصنوعی، اطلاعات را تحلیل و موارد نادرست و غلط را شناسایی کرد.

با این حال، پدیده اخبار جعلی یا همان فیک نیوز تنها محدود به ماه‌های اخیر و گسترش ابزارهای هوش مصنوعی نیست و سابقه آن به سال‌ها قبل و ظهور شبکه‌های اجتماعی برمی‌گردد. نتایج بررسی‌های توییتر در سال ۲۰۱۸ نشان داد که میزان ریتوییت و بازنشر اخبار جعلی حدود ۷۰ درصد بیشتر از اخبار واقعی و حقیقی است.

توییتر همچنین در نتیجه این بررسی اعلام کرد که دسترسی کاربران به اخبار جعلی حدود ۶ برابر سخت‌تر از دسترسی به اخبار جعلی است.
در جریان انتخابات ریاست جمهوری ۲۰۲۰ آمریکا نیز، مطالب جعلی مربوط به واکسن‌های کووید-۱۹ و تغییرات اقلیمی‌به طور گسترده‌ای در فضای وب و شبکه‌های اجتماعی منتشر می‌شد. مسئله‌ای که طبق برآوردها، روزانه بین ۵۰ تا۳۰۰ میلیون دلار هزینه را روی دست دولت آمریکا می‌گذاشت. تبعات این پدیده در عرصه سیاست نیز می‌تواند بی‌نظمیی‌های مدنی، خشونت و حتی کاهش اعتماد عمومی‌به نهادهای دموکراتیک باشد.

حال متخصصان می‌گویند که می‌توان اطلاعات غلط را با ترکیبی از الگوریتم‌ها، مدل‌های یادگیری ماشینی، هوش مصنوعی و کمک نیروی انسانی تشخیص داد. اما سوالی که پیش می‌آید این است که چه کسی مسئول کنترل، اگر نگوییم جلوگیری از انتشار، اخبار جعلی و فیک نیوزهاست. در حال حاضر، تنها شرکت‌های مالک شبکه‌های اجتماعی در موقعیتی هستند که می‌توانند بر انتشار اطلاعات غلط در پلتفرم‌های خود کنترل داشته باشند.

طبق گفته کارشناسان، یک رویکرد و روش چند وجهی برای شناسایی اطلاعات غلط در فضای آنلاین به منظور کنترل و جلوگیری از انتشار آنها احساس می‌شود. برای این منظور، می‌توان مدل‌هایی را تغریف کرد به طوری که در آن، پخش کننده اطلاعات نادرست، تمایل دارد ساختارهایی از کاربران به هم پیوسته را برای پخش اطلاعات نادرست خود تشکیل دهد.

بنابراین، باید الگوریتم‌هایی را برای تشخیص ساختارهای متراکم و به هم فشرده از کاربران که به هم در ارتباط هستند، توسعه داد. این الگوریتم‌ها می‌توانند کمپین‌های انتشار اطلاعات نادرست را بررسی و شناسایی کنند.

از آنجایی که این الگوریتم‌ها، روی ساختارهای ارتباطی میان کاربران متمرکزند، تجزیه و تحلیل محتوای منتشرشده توسط این گروه‌های ارتباطی، نیازمند دخالت نیروی انسانی است.

اما شناسایی اطلاعات غلط، تنها نیمی‌از راه محسوب می‌شود و گام بعدی، اقدامات قاطع برای جلوگیری از انتشار است. از جمله راهکارها برای این منظور می‌توان به ورود شرکت‌های مالک شبکه‌های اجتماعی به این حوزه و اتخاذ تدابیری برای جلوگیری از انتشار این محتوا و همچنین ایجاد کمپین‌هایی برای مقابله و خنثی کردن کمپین‌های اخبار جعلی اشاره کرد.

مداخلات شبکه‌های اجتماعی می‌تواند در اشکال مختلف همانند تعلیق حساب‌های کاربری و یا اقدامات ملایم‌تری همچون برچسب زدن به پست‌ها به عنوان پست مشکوک صورت گیرد. با این حال، کارشناسان می‌گویند الگوریتم‌ها و شبکه‌های مبتنی بر هوش مصنوعی به طور ۱۰۰ درصدی قابل اعتماد نیستند و هرگونه تصمیم اشتباه و انتخاب محتوای واقعی به عنوان محتوای جعلی، می‌تواند تبعات و هزینه‌هایی را به دنبال داشته باشد.

تازه ترین ها
اطلاعات
1404/07/18 - 08:22- سایرفناوری ها

اطلاعات در فضای ابری باید به‌صورت رمزنگاری‌شده، ذخیره شوند

استفاده از الگوریتم‌هایی چون AES-256، مدیریت مستقل کلیدها و مدل‌هایی چون «اعتماد صفر» نه‌تنها داده‌ها را ایمن می‌کند، بلکه انطباق با قوانین سخت‌گیرانه‌ای مانند GDPR را نیز تضمین می‌سازد.

انقلاب
1404/07/18 - 08:19- هوش مصنوعي

انقلاب پنهان هوش مصنوعی/ عامل‌های هوش مصنوعی چطور زندگی ما را دگرگون خواهند کرد؟

در سال ۲۰۲۵ مطالب زیادی درباره عامل‌های هوش مصنوعی (AI Agents) نوشته شد و حالا به نظر می‌رسد که استفاده از این فناوری نوظهور در زندگی روزمره به شکل گسترده‌تری آغاز شود.

حملات
1404/07/18 - 08:17- جنگ سایبری

حملات سایبری پایان ندارد؛ ضرورت حکمرانی قانونمند دیجیتال

رئیس مرکز ملی فضای مجازی گفت: در صورت نبود قوانین مشخص، پلتفرم‌ها می‌توانند به ابزاری علیه مردم، وحدت ملی و ارزش‌های فرهنگی کشور‌ها تبدیل شوند.