about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

شرکت اُپن اِی آی، قوانین ایمنی هوش مصنوعی خود را به‌روز می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) که با فشار فزاینده‌ای برای عرضه سریع‌تر مدل‌ها مواجه است، اعلام کرد که اگر رقبا معیارهای ایمنی مشابه را نادیده بگیرند، ممکن است قوانین خود را کاهش دهد.

شرکت اُپن اِی آی چارچوب آماده‌سازی خود، سیستم داخلی مورداستفاده برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین حفاظت‌های لازم در طول توسعه را به‌روز کرده است.

این شرکت اظهار داشت:

 اگر یک آزمایشگاه هوش مصنوعی رقیب، یک سیستم پرخطر را بدون محافظت‌های مشابه منتشر کند، ممکن است استانداردهای ایمنی خود را تنظیم کند، حرکتی که نشان‌دهنده فشار رقابتی فزاینده در صنعت هوش مصنوعی است.

به‌جای رد صریح چنین انعطاف‌پذیری، شرکت اُپن اِی آی اصرار دارد که هر هرگونه تغییری بااحتیاط و با شفافیت عمومی انجام شود.

منتقدان معتقدند که شرکت اُپن اِی آی در حال حاضر استانداردهای خود را به خاطر استقرار سریع‌تر کاهش داده است. دوازده کارمند سابق این شرکت، به‌تازگی از یک پرونده حقوقی علیه این شرکت حمایت کرده‌اند و هشدار داده‌اند که تغییر ساختار برنامه‌ریزی‌شده شرکت ممکن است باعث ایجاد میانبرهای بیشتر شود.

OpenAI این ادعاها را رد می‌کند، اما گزارش‌ها حاکی از جدول زمانی فشرده آزمایش ایمنی و افزایش اتکا به ارزیابی‌های خودکار به‌جای بررسی‌های انسانی است.

 به گفته منابع، برخی از بررسی‌های ایمنی نیز روی نسخه‌های قبلی مدل‌ها انجام می‌شود، نه نسخه‌های نهایی که برای کاربران منتشر می‌شوند.

چارچوب به‌روز شده همچنین نحوه تعریف و مدیریت ریسک OpenAI را تغییر می‌دهد. مدل‌ها اکنون به‌عنوان دارای قابلیت «بالا» یا «بحرانی» طبقه‌بندی می‌شوند، اولی به سیستم‌هایی اشاره دارد که می‌توانند آسیب را تقویت کنند، دومی به آن‌هایی که خطرات کاملاً جدیدی را معرفی می‌کنند.

منبع:

تازه ترین ها
حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای طرف‌دار اسرائیل مدعی حمله سایبری به بانک سپه شدند.

خودزنی
1404/03/27 - 19:26- آسیا

خودزنی پدافند هوایی رژیم صهیونیستی

بر اثر حمله سایبری و نفوذ به سامانه پدافندی رژیم صهیونیستی، موشک رهگیر کنترل خود را از دست می‌دهد و به خود شلیک می‌کند.

تبدیل
1404/03/27 - 14:14- هوش مصنوعي

تبدیل سیگنال‌های مغزی به کلمات توسط هوش مصنوعی

دانشمندان با استفاده از هوش مصنوعی سیگنال‌های مغزی را به کلمات تبدیل می‌کنند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.