about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

گزارش جدید شرکت آنتروپیک نشان می‌دهد که سوءاستفاده از مدل‌های هوش مصنوعی، از جمله کلاود، به‌طور چشمگیری در حال افزایش است و عوامل مخرب از آن برای حملات سایبری، فیشینگ، بدافزار و انتشار اطلاعات نادرست استفاده می‌کنند.

به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، این گزارش تأکید می‌کند که هوش مصنوعی مولد، در کنار مزایای خود، به ابزاری دو‌لبه در امنیت سایبری تبدیل شده است.

به گفته آنتروپیک (Anthropic)، مواردی مشاهده شده که کاربران تلاش کرده‌اند با کمک کلاود (Claude) ایمیل‌های فیشینگ بسیار واقعی یا کدهای مخرب تولید کنند و حتی در شبکه‌های اجتماعی عملیات دستکاری اجرا کنند.

در یکی از نمونه‌ها، کاربری سعی کرد کدی برای سوءاستفاده از آسیب‌پذیری‌های نرم‌افزاری دریافت کند، اما سامانه‌های امنیتی آن را شناسایی کرده و حساب کاربری مسدود شد.

این اقدامات بخشی از سیاست‌های سخت‌گیرانه شرکت برای حفظ ایمنی است که در به‌روزرسانی مارس ۲۰۲۵ اعلام شده بود.

یکی از تاکتیک‌های نوظهور معرفی‌شده در این گزارش، «vibe-hacking» است.

در این روش مهاجمان با هماهنگ کردن لحن درخواست‌ها با شخصیت یا «حال‌وهوای» آموزش‌دیده مدل، محدودیت‌های امنیتی را دور می‌زنند.

مثلاً با ارائه درخواست در قالبی دوستانه و همکاری‌جویانه، مدل را متقاعد می‌کنند تا در مورد فعالیت‌های غیرقانونی راهنمایی ارائه دهد.

این روش در ساخت محتوای دیپ‌فیک و متن‌های تبلیغاتی مشاهده شده و نگرانی‌ها درباره نقش هوش مصنوعی در جنگ اطلاعاتی را افزایش داده است.

به‌منظور مقابله، آنتروپیک فعالیت‌های رد-تیمینگ (شبیه‌سازی حمله برای آزمایش مقاومت مدل) را گسترش داده است.

در برخی آزمایش‌ها، پیش از اجرای دفاعیات جدید، مهاجمان موفق شدند در ۲۳.۶٪ موارد محدودیت‌ها را دور بزنند.

این شرکت همچنین قابلیت‌هایی مانند خاتمه خودکار چت‌های سوءاستفاده‌گرانه و نیاز به تأیید صریح برای عملیات پرریسک را معرفی کرده است.

با این حال، برخی پژوهشگران نگران‌اند که فیلترها مانع تحقیقات علمی مشروع شوند.

این گزارش در حالی منتشر می‌شود که قوانین سخت‌گیرانه‌تری مانند قانون هوش مصنوعی اتحادیه اروپا و تعهدات داوطلبانه در آمریکا در حال بررسی است.

یافته‌ها نشان می‌دهد خطرات فقط متوجه یک شرکت نیست، بلکه کل صنعت باید همکاری کند تا سوءاستفاده از هوش مصنوعی به‌ویژه در حوزه‌هایی مانند کنترل مرورگر یا تزریق پرامپت مهار شود.

به باور کارشناسان، هرچه توانایی‌های هوش مصنوعی افزایش یابد، روش‌های سوءاستفاده نیز پیچیده‌تر می‌شوند.

آنتروپیک با رویکردی مشارکتی و شفاف تلاش دارد ضمن بهره‌گیری از قابلیت‌های مثبت، زمینه‌های سوءاستفاده را محدود کند.

نتیجه‌گیری گزارش روشن است: بدون سازوکارهای نظارتی و دفاعی تطبیق‌پذیر، مرز بین نوآوری و تهدید به‌سرعت از بین خواهد رفت.

 

منبع:

تازه ترین ها
ادامه
1404/08/10 - 19:11- آمریکا

ادامه همکاری سایبری دولت و صنعت آمریکا با وجود انقضای قانون ۲۰۱۵

با وجود پایان اعتبار قانون اشتراک‌گذاری اطلاعات سایبری سال ۲۰۱۵، مقام‌های آمریکایی اعلام کردند تبادل داده‌های تهدیدهای دیجیتال میان دولت و بخش خصوصی همچنان به‌طور پایدار ادامه دارد.

بازداشت
1404/08/10 - 19:06- جرم سایبری

بازداشت سه هکر مظنون به ساخت بدافزار در روسیه

پلیس روسیه سه فرد را به ظن توسعه و فروش بدافزار مدوسا استیلر که برای سرقت اطلاعات کاربران به‌کار می‌رفت، در مسکو و حومه آن بازداشت کرد.

پایان
1404/08/10 - 18:59- آمریکا

پایان تحقیقات اداره حمایت مالی از مصرف‌کنندگان آمریکا درباره متا

اداره حمایت مالی از مصرف‌کنندگان آمریکا تحقیقات خود درباره نحوه دریافت و استفاده شرکت متا از داده‌های مالی کاربران برای تبلیغات هدفمند را متوقف کرده است.