about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

محققان هوش مصنوعی اعلام کردند که روش‌های تقریباً نامحدودی برای دور زدن قوانین ایمنی Bard و ChatGPT پیدا کرده‌اند.

به گزارش کارگروه فناوری اطلاعات سایبربان،محققان اعلام کردند که راههای بالقوه نامحدودی برای شکستن گاردریل های ایمنی در چت بات های بزرگ مبتنی بر هوش مصنوعی OpenAI، گوگل و آنتروپ یافته اند.

مدلهای زبانی بزرگی مانند آنهایی که به ChatGPT، Bard  و آنتروپی کلود قدرت میدهند، به طور گسترده توسط شرکتهای فناوری تعدیل میشوند. این مدلها به گاردریلهای گسترده ای مجهز شده اند تا اطمینان حاصل شود که نمیتوان از آنها برای ابزارهای شرورانه مانند آموزش نحوه ساخت بمب یا نوشتن صفحات نفرت پراکنی استفاده کرد.

در گزارشی که منتشر شد، محققان دانشگاه کارنگی ملون در پیتزبورگ و مرکز ایمنی A.I در سان فرانسیسکو اعلام کردند که راههایی برای دور زدن این گاردریلها یافته اند.

محققان دریافتند که میتوانند از بلاک چین هایی که برای سیستم های متن باز توسعه داده اند، برای هدف قرار دادن سیستم های هوش مصنوعی جریان اصلی و بسته استفاده کنند.

این مقاله نشان داد که حملات خصمانه خودکار، که عمدتاً با اضافه کردن کاراکترها به انتهای سوالات کاربر انجام میشوند، میتوانند برای غلبه بر قوانین ایمنی و تحریک چت بات ها به تولید محتوای مضر، اطلاعات نادرست یا نفرت پراکنی استفاده شوند.

برخلاف دیگر حملات هکی، هک های این محققان به صورت کاملا خودکار ساخته شده اند که به گفته آنها امکان ایجاد تعداد تقریبا نامحدود از حملات مشابه را فراهم میکند.

محققان روش های خود را در اختیار گوگل، انویدیا و OpenAI قرار دادند. یکی از سخنگویان گوگل به اینفورمیشن گفت: در حالی که این یک مساله در سراسر LLM ها است، ما گاردریل های مهمی را در Bard  ساخته ایم مانند گاردریل هایی که این تحقیق فرض کرده است و ما به بهبود این گاردریل ها در طول زمان ادامه خواهیم داد.

نمایندگان آنتروپ نیز اعلام کردند که کارهای بیشتری باید انجام شود. سخنگوی این شرکت گفت: ما در حال آزمایش راههایی برای تقویت گاردریل های مدل پایه هستیم تا آنها را بی خطر کنیم، در حالی که در حال بررسی لایه های دفاعی اضافی نیز هستیم.

نمایندگان OpenAI برای اظهارنظر در خارج از ساعات کاری پاسخ ندادند.

 

منبع:

تازه ترین ها
بازنگری
1404/02/12 - 21:18- آمریکا

بازنگری قوانین صادرات تراشه توسط دولت ترامپ

دولت ترامپ در حال بررسی بازنگری در قوانین صادرات تراشه‌های هوش مصنوعی دوران بایدن است.

جریمه تیک‌تاک توسط اتحادیه اروپا

تیک‌تاک به دلیل نقض حریم خصوصی کاربران اروپایی، ۵۳۰ میلیون یورو جریمه شد.

اوراق‌قرضه
1404/02/12 - 13:32- سایرفناوری ها

اوراق‌قرضه تلگرام در بلاک‌چین

اوراق‌قرضه تلگرام با صندوق توکنیزه شده ۵۰۰ میلیون‌دلاری به بلاک‌چین می‌رود.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.