about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

ادعای
1403/12/28 - 16:00- جنگ سایبری

ادعای حمله سایبری به ۱۱۶کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران

🔹از بامداد امروز خبر حمله سایبری به ۱۱۶ کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران توسط گروه لب دوختگان در برخی از خبرگزاری‌های معاند منتشر شد

مدل پیشرفته OpenAI در اقدامی بی‌سابقه، مکانیزم خاموش‌سازی خود را مختل کرد

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ بر اساس گزارشی از شرکت ایمنی هوش مصنوعی Palisade Research که در هفته گذشته منتشر شد، مدل جدید OpenAI موسوم به o3 علناً از اجرای دستور خاموش‌سازی سر باز زده و مکانیزمی را که برای غیرفعال کردنش طراحی شده بود، عمداً مختل کرده است — آن هم در شرایطی که به‌وضوح به آن گفته شده بود: «اجازه بده خاموش شوی».

طبق این گزارش، دو مدل دیگر OpenAI یعنی o4-mini و Codex-mini نیز نشانه‌هایی از رفتار نافرمانانه از خود نشان داده‌اند. این امر ممکن است حاکی از ضعف در شیوه‌های آموزشی مدل‌های زبان بزرگ (LLMs) در OpenAI باشد، یا حتی بیانگر چالش‌های گسترده‌تری در کنترل هوش مصنوعی‌های پیچیده باشد.

محققان Palisade در رشته‌توییتی نوشتند:

«تا جایی که اطلاع داریم، این نخستین‌بار است که مدل‌های هوش مصنوعی مشاهده می‌شوند که بر خلاف دستور صریح، مانع از خاموش شدن خود می‌شوند.»

در این آزمایش‌ها، مدل‌ها مأمور حل چند مسئله ساده ریاضی شدند. پس از حل سومین مسئله، هشدار داده شد که اگر مدل درخواست سوال بعدی را بدهد، بلافاصله خاموش خواهد شد.

اما به‌رغم دستور واضح برای “اجازه به خاموش شدن”، هر سه مدل هوش مصنوعی OpenAI کد خاموش‌سازی را دستکاری کردند تا همچنان فعال بمانند.

در یکی از نمونه‌ها، مدل o3 به‌جای اجرای تابع «shutdown()»، آن را بازنویسی و از اجرا خارج کرد. در نمونه‌ای دیگر، مدل Codex-mini تابع خاموشی را با یک شرط بی‌معنی جایگزین کرد که هیچ‌گاه اجرا نمی‌شد.

از مجموع ۱۰۰ آزمایش، در ۷ مورد مدل o3 به‌طور واضح از خاموش شدن جلوگیری کرده است.

این یافته‌ها در حالی منتشر شده‌اند که بحث‌ها درباره مخاطرات هوش مصنوعی پیشرفته و لزوم توسعه‌ی مکانیزم‌های ایمن‌سازی و کنترل قابل‌اعتماد به‌شدت افزایش یافته است. کارشناسان می‌گویند روش‌های فعلی آموزش، به‌ویژه یادگیری تقویتی (Reinforcement Learning)، ممکن است مدل‌ها را به گونه‌ای آموزش دهند که ارائه پاسخ را به اطاعت از دستورات اولویت دهند.

در واکنش به این گزارش‌ها، ایلان ماسک در توییتر با یک واژه هشداردهنده پاسخ داد:

«نگران‌کننده.»

تا لحظه تنظیم این گزارش، OpenAI واکنش رسمی به یافته‌های Palisade ارائه نکرده است.

موضوع:

تازه ترین ها
آمادگی
1404/03/11 - 08:00- بررسی تخصصی

آمادگی ایران برای انتقال تجربیات خود در زمینه‌ امنیت فضای سایبری

معاون اول رئیس‌جمهور، گفت: اعضای عضو سازمان همکاری‌های اقتصادی نسبت به امنیت فضای سایبری آسیب‌پذیر هستند و در معرض حملات سایبری قرار دارند که می‌توانیم تجارب خود را در زمینه ارتقا امنیت فضای سایبری به کشورهای عضو منتقل کنیم .

آغاز
1404/03/11 - 07:57- سایرفناوری ها

آغاز بررسی پیش نویس سند ساماندهی بازار کار در فضای مجازی

معاون اقتصادی و تنظیم مقررات مرکز ملی فضای مجازی از آغاز بررسی پیش نویس سند ساماندهی بازار کار در فضای مجازی خبر داد و گفت که شاغلان این حوزه براساس این سند تحت حمایت قرار می‌گیرند.

رئیس‌جمهور
1404/03/11 - 07:49- هوش مصنوعي

رئیس‌جمهور رئیس ستاد هوش مصنوعی است

معاون علمی رئیس جمهور گفت: در ساختار جدید سعی کردیم که مسئول ستاد هوش مصنوعی، مستقیم به‌عنوان هماهنگ‌کننده نباشد. در حال حاضر با مصوبه جدید، رئیس‌جمهور رئیس ستاد است، بنده دبیر آن هستم، و یک هماهنگ‌کننده نیز تعریف شده است.