about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

محققان هوش مصنوعی اعلام کردند که روش‌های تقریباً نامحدودی برای دور زدن قوانین ایمنی Bard و ChatGPT پیدا کرده‌اند.

به گزارش کارگروه فناوری اطلاعات سایبربان،محققان اعلام کردند که راههای بالقوه نامحدودی برای شکستن گاردریل های ایمنی در چت بات های بزرگ مبتنی بر هوش مصنوعی OpenAI، گوگل و آنتروپ یافته اند.

مدلهای زبانی بزرگی مانند آنهایی که به ChatGPT، Bard  و آنتروپی کلود قدرت میدهند، به طور گسترده توسط شرکتهای فناوری تعدیل میشوند. این مدلها به گاردریلهای گسترده ای مجهز شده اند تا اطمینان حاصل شود که نمیتوان از آنها برای ابزارهای شرورانه مانند آموزش نحوه ساخت بمب یا نوشتن صفحات نفرت پراکنی استفاده کرد.

در گزارشی که منتشر شد، محققان دانشگاه کارنگی ملون در پیتزبورگ و مرکز ایمنی A.I در سان فرانسیسکو اعلام کردند که راههایی برای دور زدن این گاردریلها یافته اند.

محققان دریافتند که میتوانند از بلاک چین هایی که برای سیستم های متن باز توسعه داده اند، برای هدف قرار دادن سیستم های هوش مصنوعی جریان اصلی و بسته استفاده کنند.

این مقاله نشان داد که حملات خصمانه خودکار، که عمدتاً با اضافه کردن کاراکترها به انتهای سوالات کاربر انجام میشوند، میتوانند برای غلبه بر قوانین ایمنی و تحریک چت بات ها به تولید محتوای مضر، اطلاعات نادرست یا نفرت پراکنی استفاده شوند.

برخلاف دیگر حملات هکی، هک های این محققان به صورت کاملا خودکار ساخته شده اند که به گفته آنها امکان ایجاد تعداد تقریبا نامحدود از حملات مشابه را فراهم میکند.

محققان روش های خود را در اختیار گوگل، انویدیا و OpenAI قرار دادند. یکی از سخنگویان گوگل به اینفورمیشن گفت: در حالی که این یک مساله در سراسر LLM ها است، ما گاردریل های مهمی را در Bard  ساخته ایم مانند گاردریل هایی که این تحقیق فرض کرده است و ما به بهبود این گاردریل ها در طول زمان ادامه خواهیم داد.

نمایندگان آنتروپ نیز اعلام کردند که کارهای بیشتری باید انجام شود. سخنگوی این شرکت گفت: ما در حال آزمایش راههایی برای تقویت گاردریل های مدل پایه هستیم تا آنها را بی خطر کنیم، در حالی که در حال بررسی لایه های دفاعی اضافی نیز هستیم.

نمایندگان OpenAI برای اظهارنظر در خارج از ساعات کاری پاسخ ندادند.

 

منبع:

تازه ترین ها
استفاده
1404/05/20 - 21:32- هوش مصنوعي

استفاده از هوش مصنوعی برای مبارزه با جرم

وزارت کشور امارات متحده عربی از هوش مصنوعی و قوانین مدرن برای مبارزه با جرم استفاده می‌کند.

وابستگی
1404/05/20 - 21:11- هوش مصنوعي

وابستگی بیش از حد کاربران به چت جی‌پی‌تی

سم آلتمن اعلام کرد که اقلیتی از کاربران چت جی‌پی‌تی در معرض آسیب ناشی از وابستگی بیش از حد به مدل‌ها هستند.

شکست
1404/05/20 - 20:36- اروپا

شکست ویکی‌پدیا در مقابل قانون ایمنی آنلاین بریتانیا

گرداننده ویکی‌پدیا در چالش دادگاهی علیه مقررات قانون ایمنی آنلاین بریتانیا شکست خورد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.