بهروزرسانی قوانین هوش مصنوعی در شرکت اُپن اِی آی
به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) که با فشار فزایندهای برای عرضه سریعتر مدلها مواجه است، اعلام کرد که اگر رقبا معیارهای ایمنی مشابه را نادیده بگیرند، ممکن است قوانین خود را کاهش دهد.
شرکت اُپن اِی آی چارچوب آمادهسازی خود، سیستم داخلی مورداستفاده برای ارزیابی ایمنی مدلهای هوش مصنوعی و تعیین حفاظتهای لازم در طول توسعه را بهروز کرده است.
این شرکت اظهار داشت:
اگر یک آزمایشگاه هوش مصنوعی رقیب، یک سیستم پرخطر را بدون محافظتهای مشابه منتشر کند، ممکن است استانداردهای ایمنی خود را تنظیم کند، حرکتی که نشاندهنده فشار رقابتی فزاینده در صنعت هوش مصنوعی است.
بهجای رد صریح چنین انعطافپذیری، شرکت اُپن اِی آی اصرار دارد که هر هرگونه تغییری بااحتیاط و با شفافیت عمومی انجام شود.
منتقدان معتقدند که شرکت اُپن اِی آی در حال حاضر استانداردهای خود را به خاطر استقرار سریعتر کاهش داده است. دوازده کارمند سابق این شرکت، بهتازگی از یک پرونده حقوقی علیه این شرکت حمایت کردهاند و هشدار دادهاند که تغییر ساختار برنامهریزیشده شرکت ممکن است باعث ایجاد میانبرهای بیشتر شود.
OpenAI این ادعاها را رد میکند، اما گزارشها حاکی از جدول زمانی فشرده آزمایش ایمنی و افزایش اتکا به ارزیابیهای خودکار بهجای بررسیهای انسانی است.
به گفته منابع، برخی از بررسیهای ایمنی نیز روی نسخههای قبلی مدلها انجام میشود، نه نسخههای نهایی که برای کاربران منتشر میشوند.
چارچوب بهروز شده همچنین نحوه تعریف و مدیریت ریسک OpenAI را تغییر میدهد. مدلها اکنون بهعنوان دارای قابلیت «بالا» یا «بحرانی» طبقهبندی میشوند، اولی به سیستمهایی اشاره دارد که میتوانند آسیب را تقویت کنند، دومی به آنهایی که خطرات کاملاً جدیدی را معرفی میکنند.