راهاندازی مرکز ایمنی هوش مصنوعی توسط اُپن اِی آی
به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) یک مرکز آنلاین عمومی برای به اشتراک گذاشتن ارزیابیهای ایمنی مدلهای هوش مصنوعی خود باهدف افزایش شفافیت در مورد محتوای مضر، راهاندازی کرده است.
این مرکز پس از تغییرات عمده مدل بهروزرسانی خواهد شد و به عموم مردم اجازه میدهد تا پیشرفت در ایمنی و قابلیت اطمینان را در طول زمان پیگیری کنند.
این اقدام به دنبال انتقادات فزاینده در مورد روشهای آزمایش شرکت، بهویژه پس از پاسخهای نامناسب ChatGPT در اواخر سال ۲۰۲۳، صورتگرفته است.
شرکت اُپن اِی آی بهجای انتظار برای واکنش شدید، اکنون یک مرحله آزمایش آلفای اختیاری را معرفی میکند و به کاربران اجازه میدهد قبل از انتشار مدلهای گستردهتر، بازخورد خود را ارائه دهند.
این مرکز همچنین نشاندهنده فاصلهگرفتن از موضع قبلی این شرکت در مورد پنهانکاری است. در سال 2019، OpenAI به دلیل نگرانیهای مربوط به سوءاستفاده، 2-GPT را منتشر نکرد. از آن زمان، با تشکیل تیمهای متمرکز بر ایمنی و پاسخ به درخواستها برای معیارهای ایمنی باز، به سمت شفافیت تغییر جهت داده است.
این رویکرد OpenAI بهموقع به نظر میرسد، زیرا چندین کشور در حال ایجاد مؤسسات ایمنی هوش مصنوعی برای ارزیابی مدلها قبل از راهاندازی هستند.
بهجای تکیه صرف بر تلاشهای بخش خصوصی، چشمانداز جهانی اکنون نشاندهندهٔ تلاشی چندجانبه برای ایجاد استانداردهای ایمنی و حاکمیت قویتر برای هوش مصنوعی پیشرفته است.