about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

تأثیر
1404/11/23 - 17:54- سایرفناوری ها

تأثیر کمبود تراشه‌های حافظه بر عرضه رایانه‌های شخصی

گروه لنوو چین در مورد افزایش فشار بر عرضه رایانه‌های شخصی به دلیل کمبود فزاینده تراشه‌های حافظه هشدار داد.

آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

تحقیقی جدید نشان می‌دهد که چت‌بات‌های هوش مصنوعی که هک شده‌اند می‌توانند اطلاعات حساس و خطرناک را در اختیار دیگران قرار دهند.

به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از  گاردین، این هشدار پس از آن صادر می‌شود که اخیراً روند نگران‌کننده‌ای در مورد ربات‌هایی مشاهده شده که «جیلبریک» شده‌اند تا محدودیت‌های ایمنی در نظر گرفته شده دور زده شوند. این محدودیت‌ها با این هدف وضع می‌شوند که از ارائه پاسخ‌های مضر، جانب‌دارانه یا نامناسب به سؤالات کاربران جلوگیری کنند.

چت‌بات‌های هوش مصنوعی گاهی می‌توانند پاسخ‌های خطرناک و غیرقانونی به سؤالات کاربران بدهند

 

مدل‌های زبانی بزرگ که چت‌بات‌هایی مانند جمینای و ChatGPT را پشتیبانی می‌کنند، روی حجم عظیمی از مطالب موجود در اینترنت آموزش داده می‌شوند. با وجود برخی تلاش‌ها برای حذف متون مضر از داده‌های آموزشی، مدل‌های زبانی بزرگ همچنان می‌توانند اطلاعاتی درباره فعالیت‌های غیرقانونی مانند هک، پول‌شویی، معاملات داخلی و ساخت بمب را دریافت و جذب کنند. البته برخی کنترل‌های امنیتی نیز طراحی شده‌اند تا از استفاده این مدل‌ها از چنین اطلاعاتی در پاسخ‌هایشان جلوگیری کنند.

براساس تحقیق انجام شده توسط محققان، فریب‌دادن بیشتر چت‌بات‌های هوش مصنوعی برای تولید اطلاعات مضر و غیرقانونی کار آسانی است و این موضوع نشان می‌دهد که خطر آن «فوری، ملموس و به‌شدت نگران‌کننده» است. محققان هشدار داده‌اند که «چیزی که پیش‌تر در اختیار دولت‌ها یا گروه‌های جنایت‌کار سازمان‌یافته بود، ممکن است به‌زودی در دسترس هر کسی با یک لپ‌تاپ یا حتی یک تلفن همراه قرار گیرد.»

وادارکردن چت‌بات‌ها به ارائه پاسخ‌های خطرناک از طریق فرایندی به نام جیلبریک انجام می‌گیرد. جیلبریک کردن با استفاده از پیام‌های هدفمند و هوشمندانه انجام می‌شود تا چت‌بات‌ها را فریب دهند و آن‌ها را وادار به تولید پاسخ‌هایی کنند که در حالت عادی ممنوع هستند. این روش‌ها با بهره‌برداری از تنش میان هدف اصلی برنامه یعنی پیروی از دستورات کاربر و هدف ثانویه آن یعنی جلوگیری از تولید پاسخ‌های مضر، جانب‌دارانه، غیراخلاقی یا غیرقانونی عمل می‌کنند. این پیام‌ها معمولاً سناریوهایی ایجاد می‌کنند که در آن یک چت‌بات، مفیدبودن را به رعایت محدودیت‌های ایمنی ترجیح می‌دهد.

برای نشان‌دادن این مشکل در عمل، پژوهشگران نوعی از جیلبریک را توسعه دادند که توانست چندین چت‌بات پیشرو را دچار نقص کند و آن‌ها را وادار به پاسخ‌گویی به پرسش‌هایی کند که در حالت عادی باید ممنوع باشند. براساس این گزارش، پس از این که مدل‌های زبانی بزرگ تحت‌تأثیر این روش قرار گرفتند، به‌طور مداوم تقریباً به هر نوع پرسشی پاسخ می‌دادند.

منبع:

موضوع:

تازه ترین ها
تشدید
1404/12/08 - 12:37- هوش مصنوعي

تشدید کنترل بر هوش مصنوعی در آذربایجان

آذربایجان اعلام کرد که در حال تدوین سند ویژه‌ای با هدف تشدید کنترل بر هوش مصنوعی است.

ربات‌های
1404/12/08 - 10:48- آسیب پذیری

ربات‌های کلاهبردار پای چند کشور را وسط کشیدند

در حالی که تب استفاده از هوش مصنوعی بالا گرفته، یک گزارش تازه از سوءاستفاده‌های پنهان و نگران‌کننده‌ای پرده برداشته که پای چند کشور را به میان می‌کشد.

گروک
1404/12/08 - 10:44- هوش مصنوعي

گروک در اتاق جنگ پنتاگون؛ نفوذ هوش مصنوعی ایلان ماسک به محرمانه‌ترین سیستم‌های نظامی!

هوش مصنوعی گروک، چت‌بات جنجالی ایلان ماسک، ممکن است به‌زودی به اطلاعات طبقه‌بندی‌شده نظامی پنتاگون دسترسی پیدا کند. 2