نسخه جدید چارچوب حاکمیت امنیت هوش مصنوعی در چین
به گزارش کارگروه فناوری اطلاعات سایبربان؛ گلوبال تایمز به نقل از اداره فضای مجازی چین گزارش داد که این کشور نسخه ۲.۰ از چارچوب حاکمیت ایمنی هوش مصنوعی (AI) خود را برای تقویت ارزیابی، کنترل و حفاظت از ریسک هوش مصنوعی به منظور حمایت از رشد پایدار این بخش منتشر کرد.
نسخه ۲.۰ براساس چارچوب اصلی، که در ماه سپتامبر سال گذشته راهاندازی شد، پیشرفتهای اخیر هوش مصنوعی را در بر میگیرد و با تنظیم دقیق دستهبندیهای ریسک، استراتژیهای درجهبندی و اقدامات حاکمیتی، به ریسکهای نوظهور میپردازد.
این چارچوب بهروزرسانیشده که با روندهای جهانی هوش مصنوعی مطابقت دارد، همکاری بینالمللی، استانداردهای اخلاقی و توزیع عادلانه مزایای هوش مصنوعی را تشویق میکند. این چارچوب راهنماییهای واضحتری در مورد طبقهبندی ریسک و حفاظتهای فناوری و همچنین پرداختن به ریسکهای ثانویه مرتبط با برنامههای هوش مصنوعی ارائه میدهد.
به گفته محققان، 4 اقدام حاکمیتی جدید برای بهبود مقررات از طریق همکاری بین توسعهدهندگان، ارائهدهندگان، کاربران، تنظیمکنندگان و جامعه مدنی اجرا و اصولی برای ارزیابی ریسکهای هوش مصنوعی و توسعه هوش مصنوعی قابل اعتماد وضع شد.