about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

شرکت اُپن اِی آی، قوانین ایمنی هوش مصنوعی خود را به‌روز می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) که با فشار فزاینده‌ای برای عرضه سریع‌تر مدل‌ها مواجه است، اعلام کرد که اگر رقبا معیارهای ایمنی مشابه را نادیده بگیرند، ممکن است قوانین خود را کاهش دهد.

شرکت اُپن اِی آی چارچوب آماده‌سازی خود، سیستم داخلی مورداستفاده برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین حفاظت‌های لازم در طول توسعه را به‌روز کرده است.

این شرکت اظهار داشت:

 اگر یک آزمایشگاه هوش مصنوعی رقیب، یک سیستم پرخطر را بدون محافظت‌های مشابه منتشر کند، ممکن است استانداردهای ایمنی خود را تنظیم کند، حرکتی که نشان‌دهنده فشار رقابتی فزاینده در صنعت هوش مصنوعی است.

به‌جای رد صریح چنین انعطاف‌پذیری، شرکت اُپن اِی آی اصرار دارد که هر هرگونه تغییری بااحتیاط و با شفافیت عمومی انجام شود.

منتقدان معتقدند که شرکت اُپن اِی آی در حال حاضر استانداردهای خود را به خاطر استقرار سریع‌تر کاهش داده است. دوازده کارمند سابق این شرکت، به‌تازگی از یک پرونده حقوقی علیه این شرکت حمایت کرده‌اند و هشدار داده‌اند که تغییر ساختار برنامه‌ریزی‌شده شرکت ممکن است باعث ایجاد میانبرهای بیشتر شود.

OpenAI این ادعاها را رد می‌کند، اما گزارش‌ها حاکی از جدول زمانی فشرده آزمایش ایمنی و افزایش اتکا به ارزیابی‌های خودکار به‌جای بررسی‌های انسانی است.

 به گفته منابع، برخی از بررسی‌های ایمنی نیز روی نسخه‌های قبلی مدل‌ها انجام می‌شود، نه نسخه‌های نهایی که برای کاربران منتشر می‌شوند.

چارچوب به‌روز شده همچنین نحوه تعریف و مدیریت ریسک OpenAI را تغییر می‌دهد. مدل‌ها اکنون به‌عنوان دارای قابلیت «بالا» یا «بحرانی» طبقه‌بندی می‌شوند، اولی به سیستم‌هایی اشاره دارد که می‌توانند آسیب را تقویت کنند، دومی به آن‌هایی که خطرات کاملاً جدیدی را معرفی می‌کنند.

منبع:

تازه ترین ها
استفاده
1404/05/20 - 21:32- هوش مصنوعي

استفاده از هوش مصنوعی برای مبارزه با جرم

وزارت کشور امارات متحده عربی از هوش مصنوعی و قوانین مدرن برای مبارزه با جرم استفاده می‌کند.

وابستگی
1404/05/20 - 21:11- هوش مصنوعي

وابستگی بیش از حد کاربران به چت جی‌پی‌تی

سم آلتمن اعلام کرد که اقلیتی از کاربران چت جی‌پی‌تی در معرض آسیب ناشی از وابستگی بیش از حد به مدل‌ها هستند.

شکست
1404/05/20 - 20:36- اروپا

شکست ویکی‌پدیا در مقابل قانون ایمنی آنلاین بریتانیا

گرداننده ویکی‌پدیا در چالش دادگاهی علیه مقررات قانون ایمنی آنلاین بریتانیا شکست خورد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.