about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند.

 به گزارش کارگروه فناوری اطلاعات سایبربان به نقل از Tom's Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

منبع:

موضوع:

تازه ترین ها
تبدیل
1404/03/27 - 14:14- هوش مصنوعي

تبدیل سیگنال‌های مغزی به کلمات توسط هوش مصنوعی

دانشمندان با استفاده از هوش مصنوعی سیگنال‌های مغزی را به کلمات تبدیل می‌کنند.

برنامه
1404/03/27 - 13:44- هوش مصنوعي

برنامه انویدیا برای اتحادیه اروپا

درخواست مدیرعامل انویدیا، برای هوش مصنوعی مستقل در میان رهبران اروپایی مورد توجه قرار گرفته است.

همکاری
1404/03/27 - 12:05- اروپا

همکاری ارتش سوئد با شرکت‌ تلیا و اریکسون

ارتش سوئد برای تقویت فناوری دفاعی به برنامه نوآوری 5G تلیا و اریکسون پیوست.