about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

ویژه‌نامه
1404/07/21 - 09:36- جنگ سایبری

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری؛ روایتی از نبرد میان حامیان غزه و رژیم صهیونیستی

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری که به مناسبت دومین سالگرد عملیات طوفان‌الاقصی‌ منتشر شده است؛ روایتی از نبرد سایبری میان حامیان‌غزه و رژیم صهیونیستی و هم‌پیمانانش است.

شرکت اُپن اِی آی، قوانین ایمنی هوش مصنوعی خود را به‌روز می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) که با فشار فزاینده‌ای برای عرضه سریع‌تر مدل‌ها مواجه است، اعلام کرد که اگر رقبا معیارهای ایمنی مشابه را نادیده بگیرند، ممکن است قوانین خود را کاهش دهد.

شرکت اُپن اِی آی چارچوب آماده‌سازی خود، سیستم داخلی مورداستفاده برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین حفاظت‌های لازم در طول توسعه را به‌روز کرده است.

این شرکت اظهار داشت:

 اگر یک آزمایشگاه هوش مصنوعی رقیب، یک سیستم پرخطر را بدون محافظت‌های مشابه منتشر کند، ممکن است استانداردهای ایمنی خود را تنظیم کند، حرکتی که نشان‌دهنده فشار رقابتی فزاینده در صنعت هوش مصنوعی است.

به‌جای رد صریح چنین انعطاف‌پذیری، شرکت اُپن اِی آی اصرار دارد که هر هرگونه تغییری بااحتیاط و با شفافیت عمومی انجام شود.

منتقدان معتقدند که شرکت اُپن اِی آی در حال حاضر استانداردهای خود را به خاطر استقرار سریع‌تر کاهش داده است. دوازده کارمند سابق این شرکت، به‌تازگی از یک پرونده حقوقی علیه این شرکت حمایت کرده‌اند و هشدار داده‌اند که تغییر ساختار برنامه‌ریزی‌شده شرکت ممکن است باعث ایجاد میانبرهای بیشتر شود.

OpenAI این ادعاها را رد می‌کند، اما گزارش‌ها حاکی از جدول زمانی فشرده آزمایش ایمنی و افزایش اتکا به ارزیابی‌های خودکار به‌جای بررسی‌های انسانی است.

 به گفته منابع، برخی از بررسی‌های ایمنی نیز روی نسخه‌های قبلی مدل‌ها انجام می‌شود، نه نسخه‌های نهایی که برای کاربران منتشر می‌شوند.

چارچوب به‌روز شده همچنین نحوه تعریف و مدیریت ریسک OpenAI را تغییر می‌دهد. مدل‌ها اکنون به‌عنوان دارای قابلیت «بالا» یا «بحرانی» طبقه‌بندی می‌شوند، اولی به سیستم‌هایی اشاره دارد که می‌توانند آسیب را تقویت کنند، دومی به آن‌هایی که خطرات کاملاً جدیدی را معرفی می‌کنند.

منبع:

تازه ترین ها
تقویت
1404/10/12 - 14:10- آسیا

تقویت تولید قطعات الکترونیکی در هند

هند پروژه‌های قطعات الکترونیکی به ارزش ۴.۶ میلیارد دلار را تصویب کرد.

طرح
1404/10/12 - 13:55- هوش مصنوعي

طرح دسترسی به هوش مصنوعی در سراسر هند

هند طرح گسترش دسترسی به هوش مصنوعی را تدوین کرد.

تولید
1404/10/12 - 12:59- اروپا

تولید نیمه‌رسانا‌ها در فضا

یک شرکت بریتانیایی قصد دارد در دمای بسیار بالا در فضا، نیمه‌رسانا تولید کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.