about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

ویژه‌نامه
1404/07/21 - 09:36- جنگ سایبری

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری؛ روایتی از نبرد میان حامیان غزه و رژیم صهیونیستی

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری که به مناسبت دومین سالگرد عملیات طوفان‌الاقصی‌ منتشر شده است؛ روایتی از نبرد سایبری میان حامیان‌غزه و رژیم صهیونیستی و هم‌پیمانانش است.

محققان هوش مصنوعی اعلام کردند که روش‌های تقریباً نامحدودی برای دور زدن قوانین ایمنی Bard و ChatGPT پیدا کرده‌اند.

به گزارش کارگروه فناوری اطلاعات سایبربان،محققان اعلام کردند که راههای بالقوه نامحدودی برای شکستن گاردریل های ایمنی در چت بات های بزرگ مبتنی بر هوش مصنوعی OpenAI، گوگل و آنتروپ یافته اند.

مدلهای زبانی بزرگی مانند آنهایی که به ChatGPT، Bard  و آنتروپی کلود قدرت میدهند، به طور گسترده توسط شرکتهای فناوری تعدیل میشوند. این مدلها به گاردریلهای گسترده ای مجهز شده اند تا اطمینان حاصل شود که نمیتوان از آنها برای ابزارهای شرورانه مانند آموزش نحوه ساخت بمب یا نوشتن صفحات نفرت پراکنی استفاده کرد.

در گزارشی که منتشر شد، محققان دانشگاه کارنگی ملون در پیتزبورگ و مرکز ایمنی A.I در سان فرانسیسکو اعلام کردند که راههایی برای دور زدن این گاردریلها یافته اند.

محققان دریافتند که میتوانند از بلاک چین هایی که برای سیستم های متن باز توسعه داده اند، برای هدف قرار دادن سیستم های هوش مصنوعی جریان اصلی و بسته استفاده کنند.

این مقاله نشان داد که حملات خصمانه خودکار، که عمدتاً با اضافه کردن کاراکترها به انتهای سوالات کاربر انجام میشوند، میتوانند برای غلبه بر قوانین ایمنی و تحریک چت بات ها به تولید محتوای مضر، اطلاعات نادرست یا نفرت پراکنی استفاده شوند.

برخلاف دیگر حملات هکی، هک های این محققان به صورت کاملا خودکار ساخته شده اند که به گفته آنها امکان ایجاد تعداد تقریبا نامحدود از حملات مشابه را فراهم میکند.

محققان روش های خود را در اختیار گوگل، انویدیا و OpenAI قرار دادند. یکی از سخنگویان گوگل به اینفورمیشن گفت: در حالی که این یک مساله در سراسر LLM ها است، ما گاردریل های مهمی را در Bard  ساخته ایم مانند گاردریل هایی که این تحقیق فرض کرده است و ما به بهبود این گاردریل ها در طول زمان ادامه خواهیم داد.

نمایندگان آنتروپ نیز اعلام کردند که کارهای بیشتری باید انجام شود. سخنگوی این شرکت گفت: ما در حال آزمایش راههایی برای تقویت گاردریل های مدل پایه هستیم تا آنها را بی خطر کنیم، در حالی که در حال بررسی لایه های دفاعی اضافی نیز هستیم.

نمایندگان OpenAI برای اظهارنظر در خارج از ساعات کاری پاسخ ندادند.

 

منبع:

تازه ترین ها
تقویت
1404/10/12 - 14:10- آسیا

تقویت تولید قطعات الکترونیکی در هند

هند پروژه‌های قطعات الکترونیکی به ارزش ۴.۶ میلیارد دلار را تصویب کرد.

طرح
1404/10/12 - 13:55- هوش مصنوعي

طرح دسترسی به هوش مصنوعی در سراسر هند

هند طرح گسترش دسترسی به هوش مصنوعی را تدوین کرد.

تولید
1404/10/12 - 12:59- اروپا

تولید نیمه‌رسانا‌ها در فضا

یک شرکت بریتانیایی قصد دارد در دمای بسیار بالا در فضا، نیمه‌رسانا تولید کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.