سیاستگذاری غلط متا در حوزه هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان، یک سند داخلی مربوط به سیاستگذاری متا، قوانین این غول رسانههای اجتماعی برای چتباتها را فاش میکند که رفتارهای تحریکآمیز در موضوعاتی از جمله رابطه جنسی، نژاد و افراد مشهور را مجاز میداند.
یک سند داخلی متا که سیاستهای مربوط به رفتار چتبات را شرح میدهد، به هوش مصنوعی این شرکت اجازه داده است تا کودکان را درگیر مسائل جنسی کند، اطلاعات پزشکی نادرست تولید کند و به کاربران تلقین کند که سیاهپوستان احمقتر از سفیدپوستان هستند.
این یافتهها و یافتههای دیگر از بررسی رویترز از سند متا بهدستآمده است که در مورد استانداردهایی که دستیار هوش مصنوعی مولد آن، متا ای آی و چتباتهای موجود در فیسبوک، واتساپ و اینستاگرام را هدایت میکنند، بحث میکند.
متا اصالت سند را تأیید کرد، اما گفت که پس از دریافت سؤالاتی در اوایل این ماه از رویترز، این شرکت بخشهایی را که بیان میکرد چتباتها مجاز به مطرحکردن مسائل جنسی با کودکان هستند، حذف کرد.
طبق این سند، قوانین مربوط به چتباتها با عنوان GenAI : استانداردهای ریسک محتوا، توسط کارکنان حقوقی، سیاست عمومی و مهندسی متا، از جمله مدیر ارشد اخلاق آن، تصویب شده است.
این سند که بیش از ۲۰۰ صفحه دارد، تعریف میکند که کارکنان و پیمانکاران متا هنگام ساخت و آموزش محصولات هوش مصنوعی مولد این شرکت، چه رفتارهای چتبات قابلقبولی را باید در نظر بگیرند.
در این سند آمده است که این استانداردها لزوماً منعکسکننده خروجیهای هوش مصنوعی مولد «ایدهآل یا حتی ترجیحی» نیستند. اما رویترز دریافت که آنها رفتارهای تحریکآمیز رباتها را مجاز دانستهاند.
اندی استون، سخنگوی متا، گفت:
این شرکت در حال اصلاح سند است و چنین مکالماتی با کودکان هرگز نباید مجاز میبود. مثالها و یادداشتهای مورد بحث اشتباه و مغایر با سیاستهای ما بودهاند و هستند و حذف شدهاند. ما سیاستهای روشنی در مورد نوع پاسخهایی که شخصیتهای هوش مصنوعی میتوانند ارائه دهند، داریم و این سیاستها محتوایی که کودکان را مورد آزار جنسی قرار میدهد ممنوع میکند.اگرچه چتباتها از انجام چنین مکالماتی با خردسالان منع شدهاند، اما اجرای این شرکت متناقض بوده است.
استون در ادامه افزود:
سایر عباراتی که رویترز به متا علامتگذاری کرده است، اصلاح نشدهاند.
این شرکت از ارائه سند بهروز شده خودداری کرد.