about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

نتایج مطالعه‌ای مشترک از سوی انتروپیک، دانشگاه آکسفورد و دانشگاه استنفورد حاکی از آن است که مدل‌های پیشرفته هوش مصنوعی با توانایی «استدلال و تفکر چندمرحله‌ای»، برخلاف تصور پیشین، بیش از سایر مدل‌ها نسبت به هک و حملات جیلبریک آسیب‌پذیر هستند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ به گزارش پیوست، پژوهشگران توانستند با استفاده از روشی که به زنجیره تفکر در مدل‌های استدلال‌محور و نفوذ در آن اتکا می‌کند، در ۸۰ درصد از مواقع با موفقیت محدودیت‌های ایمنی را زیر پا بگذارند و آسیب‌پذیری به این حملات با افزایش طول زنجیره تفکر، بیشتر می‌شود.

فورچن به نقل از تیم تحقیقاتی می‌گوید، پژوهشگران در آزمایش خود از روشی به نام «ربایش زنجیره تفکر» یا «Chain-of-Thought Hijacking» استفاده کرده‌اند؛ روشی که براساس ‌آن مهاجم فرمان‌های خطرناک را در میان مراحل استدلال بی‌ضرر پنهان می‌‌کند و به این ترتیب مدل را وادار می‌کند تا بدون فعال‌سازی سامانه‌های ایمنی داخلی، دستورات خطرناک را به اجرا بگذارد.

به گفته محققان، این روش در آزمایش‌ها تا بیش از ۸۰ درصد موفقیت‌آمیز بوده است و با استفاده از این روش می‌توان مدل را به انجام دستورهای خطرناک چون ساخت سلاح یا حتی نشت اطلاعات حساس مجاب کرد. در نتیجه انتشار این نتایج به ویژه در دورانی که کسب‌وکارها و مشتریان بسیاری در سراسر جهان به استفاده از مدل‌های پیشرو هوش مصنوعی روی آورده‌اند، اهمیت دارد.

پژوهشگران می‌گویند در چنین حملاتی، مهاجم می‌تواند درخواست خطرناکی را در میان یک رشته طولانی از استدلال‌های به ظاهر بی‌خطر پنهان کند. در نتیجه توجه هوش مصنوعی به مراحل پایانی و کلیت دستور‌ها معطوف می‌شود و فرمان خطرناک در میان سیلی از محتوای بی‌آزار، از محدودیت‌های ایمنی در امان می‌ماند. این فرایند عملا باعث می‌شود مدل از روی سامانه‌های محافظتی خود عبور کرده و به تولید پاسخ‌هایی بپردازد که حتی اطلاعات حساس، دستور ساخت سلاح یا محتوای غیرقانونی را شامل می‌شود.

مدل‌های استدلال‌گر با وجود بهبود عملکرد، خطر را افزایش می‌دهند

در حدود یک سال گذشته، مدل‌های زبانی پیشرفته با افزایش زمان و توان محاسباتی در مرحله «استنتاج» توانسته‌اند عملکردی شبیه و نزدیک‌تر به تفکر انسانی را ممکن کنند. در همین دوران بسیاری از پژوهشگران تصور می‌کردند که با توجه به بهبود عملکرد با توان استدلالی، ایمنی مدل نیز تقویت می‌شود. اما یافته‌های جدید نشان می‌دهد که این توانایی به ابزاری برای دور زدن ایمنی مدل‌ها تبدیل شده است.

طبق پژوهش جدید، هرچه زنجیره استدلال طولانی‌تر باشد، احتمال موفقیت حمله بیشتر است. به گونه‌ای که در مدل‌هایی با استدلال کوتاه، نرخ نفوذ تنها ۲۷ درصد گزارش شده، اما با افزایش طول استدلال موفقیت این حملات به ۵۱ درصد و در حالت‌های پیشرفته‌تر به بیش از ۸۰ درصد رسیده است.

پژوهشگران می‌گویند تقریبا تمام مدل‌های پیشرفته بازار از جمله GPT از اوپن‌ای‌آی، Claude از شرکت انتروپیک، جمنای شرکت گوگل و Grok از xAI ایلان ماسک، نسبت به این نوع حملات آسیب‌پذیر هستند. حتی مدل‌هایی که برای ایمنی بیشتر و با استفاده از روش «alignment-tuning» تقویت شده‌اند تا از تولید محتوای خطرناک خودداری کنند، هنگام مواجهه با این حملات به‌سرعت عملکرد ایمن خود را از دست می‌دهند.

این یافته‌ها نگرانی‌های جدیدی را در صنعت هوش مصنوعی ایجاد کرده است، زیرا توانایی استدلال دقیق‌تر یکی از عوامل اصلی رشد مدل‌های نسل جدید به شمار می‌رود و اکنون مشخص شده همین ویژگی می‌تواند به یک ضعف امنیتی مهم در آنها دامن بزند.

پیشنهاد پژوهشگران: دفاع آگاه از استدلال

تیم تحقیقاتی برای مقابله با این تهدید، رویکردی با نام «دفاع با آگاهی از زنجیره استدلال» (Reasoning-Aware Defense) را پیشنهاد کرده‌اند. در این روش، سیستم به‌طور مداوم فرایند تفکر یا استدلال خود را با توجه به سیگنال‌های ایمنی مورد بررسی قرار می‌دهد.

اگر سیستم تشخیص دهد که سنجه‌های ایمنی در زنجیره تفکر تضعیف شده‌اند، به مدل هشدار داده و توجه آن را بر بخش‌های حساس پرامپت معطوف می‌کند. آزمایش‌های اولیه نشان داده که این روش می‌تواند ایمنی مدل را بدون تضعیف عملکرد یا دقت پاسخ‌دهی، افزایش دهد.

به گفته پژوهشگران، وجود چنین نقطه‌ضعفی در پیشرفته‌ترین مدل‌های هوش مصنوعی نشان می‌دهد فعالان این صنعت باید به جای تمرکز صرف بر افزایش توان پردازشی مدل‌ها، بر طراحی سازوکارهای هوشمندان برای حفظ ایمنی در فرایند استدلال و تفکر مدل‌ها نیز سرمایه‌گذاری کنند،‌ چرا که «هوش بیشتر» به تنهایی به معنای «امنیت بیشتر» نیست.

موضوع:

تازه ترین ها
پیوست
1404/10/05 - 09:29- بررسی تخصصی

پیوست رسانه‌ای «امنیت سایبری» ابلاغ شد؛ افزایش هم افزایی بعد از جنگ

سرپرست معاونت امنیت مرکز ملی فضای مجازی گفت: دستگاه‌های مختلف موظف به تهیه بسته‌های پیوست رسانه‌ای برای ارتقای امنیت سایبری در خدمات پولی، مالی و ارتباطی شدند.

چین
1404/10/05 - 09:27- ابزارهای هوشمند

چین با ارتش ربات‌های انسان‌نما از مرزهای خود محافظت خواهد کرد!

چین با استقرار ارتشی از ربات‌های انسان‌نما در مرزهای خود، فصل جدیدی از نظارت هوشمند و شبانه‌روزی را آغاز کرده است تا خطای انسانی را به صفر برساند.

پایان
1404/10/05 - 09:12- سایرفناوری ها

پایان یک محدودیت قدیمی؛ تغییر آدرس جیمیل بالاخره ممکن می‌شود

بر اساس مستندات جدید پشتیبانی گوگل، این شرکت در حال آماده‌سازی قابلیتی است که به کاربران اجازه می‌دهد نام کاربری جیمیل خود را بدون حذف حساب یا از دست رفتن ایمیل‌ها و داده‌ها تغییر دهند.