about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

تحقیقی جدید نشان می‌دهد که چت‌بات‌های هوش مصنوعی که هک شده‌اند می‌توانند اطلاعات حساس و خطرناک را در اختیار دیگران قرار دهند.

به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از  گاردین، این هشدار پس از آن صادر می‌شود که اخیراً روند نگران‌کننده‌ای در مورد ربات‌هایی مشاهده شده که «جیلبریک» شده‌اند تا محدودیت‌های ایمنی در نظر گرفته شده دور زده شوند. این محدودیت‌ها با این هدف وضع می‌شوند که از ارائه پاسخ‌های مضر، جانب‌دارانه یا نامناسب به سؤالات کاربران جلوگیری کنند.

چت‌بات‌های هوش مصنوعی گاهی می‌توانند پاسخ‌های خطرناک و غیرقانونی به سؤالات کاربران بدهند

 

مدل‌های زبانی بزرگ که چت‌بات‌هایی مانند جمینای و ChatGPT را پشتیبانی می‌کنند، روی حجم عظیمی از مطالب موجود در اینترنت آموزش داده می‌شوند. با وجود برخی تلاش‌ها برای حذف متون مضر از داده‌های آموزشی، مدل‌های زبانی بزرگ همچنان می‌توانند اطلاعاتی درباره فعالیت‌های غیرقانونی مانند هک، پول‌شویی، معاملات داخلی و ساخت بمب را دریافت و جذب کنند. البته برخی کنترل‌های امنیتی نیز طراحی شده‌اند تا از استفاده این مدل‌ها از چنین اطلاعاتی در پاسخ‌هایشان جلوگیری کنند.

براساس تحقیق انجام شده توسط محققان، فریب‌دادن بیشتر چت‌بات‌های هوش مصنوعی برای تولید اطلاعات مضر و غیرقانونی کار آسانی است و این موضوع نشان می‌دهد که خطر آن «فوری، ملموس و به‌شدت نگران‌کننده» است. محققان هشدار داده‌اند که «چیزی که پیش‌تر در اختیار دولت‌ها یا گروه‌های جنایت‌کار سازمان‌یافته بود، ممکن است به‌زودی در دسترس هر کسی با یک لپ‌تاپ یا حتی یک تلفن همراه قرار گیرد.»

وادارکردن چت‌بات‌ها به ارائه پاسخ‌های خطرناک از طریق فرایندی به نام جیلبریک انجام می‌گیرد. جیلبریک کردن با استفاده از پیام‌های هدفمند و هوشمندانه انجام می‌شود تا چت‌بات‌ها را فریب دهند و آن‌ها را وادار به تولید پاسخ‌هایی کنند که در حالت عادی ممنوع هستند. این روش‌ها با بهره‌برداری از تنش میان هدف اصلی برنامه یعنی پیروی از دستورات کاربر و هدف ثانویه آن یعنی جلوگیری از تولید پاسخ‌های مضر، جانب‌دارانه، غیراخلاقی یا غیرقانونی عمل می‌کنند. این پیام‌ها معمولاً سناریوهایی ایجاد می‌کنند که در آن یک چت‌بات، مفیدبودن را به رعایت محدودیت‌های ایمنی ترجیح می‌دهد.

برای نشان‌دادن این مشکل در عمل، پژوهشگران نوعی از جیلبریک را توسعه دادند که توانست چندین چت‌بات پیشرو را دچار نقص کند و آن‌ها را وادار به پاسخ‌گویی به پرسش‌هایی کند که در حالت عادی باید ممنوع باشند. براساس این گزارش، پس از این که مدل‌های زبانی بزرگ تحت‌تأثیر این روش قرار گرفتند، به‌طور مداوم تقریباً به هر نوع پرسشی پاسخ می‌دادند.

منبع:

موضوع:

تازه ترین ها
همکاری
1404/07/14 - 17:57- هوش مصنوعي

همکاری استراتژیک AMD و OpenAI جهت گسترش زیرساخت‌های هوش مصنوعی

شرکت‌های AMD و OpenAI امروز از توافق‌نامه‌ای برای تأمین 6 گیگاوات توان پردازشی جهت پشتیبانی از زیرساخت هوش مصنوعی نسل بعدی OpenAI با استفاده از چند نسل از پردازنده‌های گرافیکی AMD Instinct خبر دادند.

هوش
1404/07/14 - 17:54- هوش مصنوعي

هوش مصنوعی دانشگاه امیرکبیر ارتفاع امواج دریایی را پیش بینی می‌کند

پژوهشگران دانشگاه صنعتی امیرکبیر موفق به توسعه یک مدل نوآورانه مبتنی بر یادگیری ماشین شده‌اند که می‌تواند ارتفاع موج شاخص را با دقتی بین ۹۳ تا ۹۷ درصد پیش‌بینی کند.

گوگل
1404/07/14 - 17:52- سایرفناوری ها

گوگل محدودسازی نصب برنامه از منابع غیررسمی در اندروید را تأیید کرد

گوگل مدعی است که این تغییرات جدید به ارتقای امنیت کاربران منجر خواهد شد.