about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای گنجشک درنده(گروهی منتسب به آمریکا) مدعی حمله سایبری به بانک سپه شدند.

گزارش جدید شرکت آنتروپیک نشان می‌دهد که سوءاستفاده از مدل‌های هوش مصنوعی، از جمله کلاود، به‌طور چشمگیری در حال افزایش است و عوامل مخرب از آن برای حملات سایبری، فیشینگ، بدافزار و انتشار اطلاعات نادرست استفاده می‌کنند.

به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، این گزارش تأکید می‌کند که هوش مصنوعی مولد، در کنار مزایای خود، به ابزاری دو‌لبه در امنیت سایبری تبدیل شده است.

به گفته آنتروپیک (Anthropic)، مواردی مشاهده شده که کاربران تلاش کرده‌اند با کمک کلاود (Claude) ایمیل‌های فیشینگ بسیار واقعی یا کدهای مخرب تولید کنند و حتی در شبکه‌های اجتماعی عملیات دستکاری اجرا کنند.

در یکی از نمونه‌ها، کاربری سعی کرد کدی برای سوءاستفاده از آسیب‌پذیری‌های نرم‌افزاری دریافت کند، اما سامانه‌های امنیتی آن را شناسایی کرده و حساب کاربری مسدود شد.

این اقدامات بخشی از سیاست‌های سخت‌گیرانه شرکت برای حفظ ایمنی است که در به‌روزرسانی مارس ۲۰۲۵ اعلام شده بود.

یکی از تاکتیک‌های نوظهور معرفی‌شده در این گزارش، «vibe-hacking» است.

در این روش مهاجمان با هماهنگ کردن لحن درخواست‌ها با شخصیت یا «حال‌وهوای» آموزش‌دیده مدل، محدودیت‌های امنیتی را دور می‌زنند.

مثلاً با ارائه درخواست در قالبی دوستانه و همکاری‌جویانه، مدل را متقاعد می‌کنند تا در مورد فعالیت‌های غیرقانونی راهنمایی ارائه دهد.

این روش در ساخت محتوای دیپ‌فیک و متن‌های تبلیغاتی مشاهده شده و نگرانی‌ها درباره نقش هوش مصنوعی در جنگ اطلاعاتی را افزایش داده است.

به‌منظور مقابله، آنتروپیک فعالیت‌های رد-تیمینگ (شبیه‌سازی حمله برای آزمایش مقاومت مدل) را گسترش داده است.

در برخی آزمایش‌ها، پیش از اجرای دفاعیات جدید، مهاجمان موفق شدند در ۲۳.۶٪ موارد محدودیت‌ها را دور بزنند.

این شرکت همچنین قابلیت‌هایی مانند خاتمه خودکار چت‌های سوءاستفاده‌گرانه و نیاز به تأیید صریح برای عملیات پرریسک را معرفی کرده است.

با این حال، برخی پژوهشگران نگران‌اند که فیلترها مانع تحقیقات علمی مشروع شوند.

این گزارش در حالی منتشر می‌شود که قوانین سخت‌گیرانه‌تری مانند قانون هوش مصنوعی اتحادیه اروپا و تعهدات داوطلبانه در آمریکا در حال بررسی است.

یافته‌ها نشان می‌دهد خطرات فقط متوجه یک شرکت نیست، بلکه کل صنعت باید همکاری کند تا سوءاستفاده از هوش مصنوعی به‌ویژه در حوزه‌هایی مانند کنترل مرورگر یا تزریق پرامپت مهار شود.

به باور کارشناسان، هرچه توانایی‌های هوش مصنوعی افزایش یابد، روش‌های سوءاستفاده نیز پیچیده‌تر می‌شوند.

آنتروپیک با رویکردی مشارکتی و شفاف تلاش دارد ضمن بهره‌گیری از قابلیت‌های مثبت، زمینه‌های سوءاستفاده را محدود کند.

نتیجه‌گیری گزارش روشن است: بدون سازوکارهای نظارتی و دفاعی تطبیق‌پذیر، مرز بین نوآوری و تهدید به‌سرعت از بین خواهد رفت.

 

منبع:

تازه ترین ها
جاسوسی
1404/06/05 - 18:34- امنیت تلفن همراه

جاسوسی رادار‌ها از طریق ارتعاشات داخلی تلفن همراه

فناوری WirelessTap با حداکثر دقت تشخیص کلمه حدود ۶۰٪ و تا برد ۳ متر می‌تواند از طریق ارتعاشات داخلی تلفن شما از شما جاسوسی کند.

ساخت
1404/06/05 - 18:32- ابزارهای هوشمند

ساخت رباتی که دست‌هایش اطراف را می‌بیند

محققان ژاپنی از تولید محصولی خبر داده‌اند که به ربات‌ها امکان می‌دهد محیط اطراف را از طریق بازوی خود ببینند و لمس کنند.

عربستان
1404/06/05 - 18:24- هوش مصنوعي

عربستان سعودی اولین چت‌بات هوش مصنوعی مبتنی بر قوانین اسلامی را عرضه کرد

شرکت هیومن (Humain) در عربستان سعودی با معرفی چت‌بات بومی، قدمی تازه در مسیر هوش مصنوعی اسلامی عربستان برداشت.