about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند.

 به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از Tom's Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

منبع:

موضوع:

تازه ترین ها
سوءاستفاده
1404/05/21 - 16:29- آسیب پذیری

سوءاستفاده از آسیب‌پذیری‌های WinRAR در کارزارهای جاسوسی سایبری

پژوهشگران دریافته‌اند که دو عامل تهدید متفاوت، از جمله یک گروه جاسوسی سایبری همسو با روسیه، تابستان امسال از آسیب‌پذیری‌های موجود در نرم‌افزار محبوب بایگانی فایل WinRAR بهره‌برداری کرده‌اند.

پیروزی
1404/05/21 - 15:57- اقیانوسیه

پیروزی نسبی برای اپیک گیمز در مقابل اپل و گوگل

دادگاه استرالیا در پرونده شکایت اپیک گیمز، تا حدودی علیه اپل و گوگل رأی داد.

دیدار
1404/05/21 - 12:20- آمریکا

دیدار ترامپ با مدیرعامل اینتل

ترامپ پس از درخواست استعفای مدیرعامل اینتل، جلسه‌ای مهم با او برگزار کرد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.