about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

همزمان با گسترش سریع ابزارهای هوش مصنوعی در جهان، کارشناسان امنیتی و پژوهشگران هشدار می‌دهند که گروه‌های افراط‌گرا و تندرو نیز در حال بهره‌برداری از این فناوری نوین برای تبلیغات، جذب نیرو و عملیات روانی هستند؛

به گزارش کارگروه فناوری اطلاعات سایبربان ، گزارش‌ها و تحلیل‌های جدید نشان می‌دهد که هوش مصنوعی، علاوه بر کاربردهای گسترده در حوزه‌های علمی، اقتصادی و اجتماعی، می‌تواند به ابزاری خطرناک در دست گروه‌های افراط‌گرا تبدیل شود. این گروه‌ها با استفاده از فناوری‌هایی مانند تولید متن، تصویر و ویدئوی جعلی (دیپ‌فیک)، قادرند پیام‌های ایدئولوژیک خود را حرفه‌ای‌تر، سریع‌تر و هدفمندتر منتشر کنند.

کارشناسان می‌گویند الگوریتم‌های هوش مصنوعی می‌توانند برای شناسایی افراد مستعد افراط‌گرایی در شبکه‌های اجتماعی، شخصی‌سازی پیام‌های تبلیغاتی و حتی آموزش‌های مجازی مورد استفاده قرار گیرند. همچنین تولید محتوای جعلی اما باورپذیر، امکان انتشار اخبار نادرست و تحریک احساسات عمومی را افزایش داده است.

در همین حال، نهادهای امنیتی و شرکت‌های فناوری با چالشی جدی روبه‌رو هستند؛ از یک سو توسعه هوش مصنوعی برای پیشرفت جوامع ضروری است و از سوی دیگر، نبود چارچوب‌های نظارتی دقیق می‌تواند زمینه سوءاستفاده افراط‌گرایان را فراهم کند. 

برخی دولت‌ها و پلتفرم‌های بزرگ دیجیتال اعلام کرده‌اند در حال تقویت سیستم‌های نظارتی و شناسایی محتوای افراطی مبتنی بر هوش مصنوعی هستند.

با این حال، تحلیلگران تأکید می‌کنند مقابله با این تهدید صرفاً فنی نیست و نیازمند همکاری بین‌المللی، آموزش عمومی و تدوین قوانین شفاف است. 

به باور آنان، آینده هوش مصنوعی به نحوه مدیریت امروز آن بستگی دارد؛ فناوری‌ای که می‌تواند هم در خدمت امنیت و آگاهی باشد و هم، در صورت غفلت، به ابزار تازه‌ای برای افراط‌گرایی تبدیل شود.

منبع:

موضوع:

تازه ترین ها
سیستم
1404/09/30 - 13:30- هوش مصنوعي

سیستم تبدیل گفتار به واقعیت

محققان دانشگاه ام‌آی‌تی آمریکا یک سیستم تبدیل گفتار به واقعیت توسعه داده‌اند.

درآمد
1404/09/30 - 12:39- سایرفناوری ها

درآمد بی‌سابقه‌ شرکت میکرون

تقاضای قوی برای حافظه هوش مصنوعی، چشم‌انداز میکرون را تا سال ۲۰۲۶ تقویت می‌کند.

همکاری
1404/09/30 - 12:03- هوش مصنوعي

همکاری گوگل دیپ‌مایند با وزارت انرژی آمریکا

گوگل دیپ‌مایند با وزارت انرژی آمریکا برای علوم مبتنی بر هوش مصنوعی همکاری می‌کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.