نژادپرستی در چتباتهای هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان، تحقیقات مرکز ارتباطات سازنده مؤسسه فناوری ماساچوست (CCC)نشان میدهد که چتباتهای هوش مصنوعی پیشرو اغلب پاسخهای بیکیفیتتری به کاربرانی بامهارت انگلیسی پایینتر، تحصیلات کمتر یا کسانی که خارج از ایالات متحده هستند، ارائه میدهند.
مدلهای آزمایششده شامل (GPT-4)، (Claude 3 Opus) و (Llama 3) هستند که گاهی اوقات از پاسخدادن خودداری میکنند.
محققان با استفاده از مجموعهدادههای (TruthfulQA) و (SciQ)، شرححال کاربران را برای شبیهسازی تفاوتها در تحصیلات، زبان و کشور اضافه کردند.
دقت در بین کاربران غیربومی انگلیسیزبان و کمسواد بهشدت کاهش یافت و بیشترین کاهش در بین کسانی که تحتتأثیر هر دو قرار داشتند، مشاهده شد. کاربران از کشورهایی مانند ایران نیز پاسخهای باکیفیت پایینتری دریافت کردند.
رفتار امتناع قابلتوجه بود. مدل (Claude 3 Opus) 11 درصد از سوالات را برای افراد کمسواد و غیرانگلیسی زبان رد کرد، در حالی که این رقم برای کاربران گروه کنترل 3.6درصد بود. بررسی دستی نشان داد که 43.7درصد از امتناعها حاوی زبان تحقیرآمیز بود.
برخی از کاربران از دسترسی به موضوعات خاص منع شدند، حتی اگر به برخی دیگر از موضوعات بهدرستی پاسخ داده بودند.
این مطالعه، سوگیریهای اجتماعی - شناختی انسان را منعکس میکند که در آن افراد غیربومی اغلب بهعنوان افراد کمصلاحیتتر تلقی میشوند. چتباتهای هوش مصنوعی میتوانند تعصبات اجتماعی را تقویت، تعصبات انسانی را منعکس و دسترسی برابر به اطلاعات قابلاعتماد را محدود کنند.
محققان هشدار میدهند که شخصیسازی هوش مصنوعی میتواند نابرابریها را بدتر کند و در زمانی که کاربران به آن نیاز دارند، اطلاعات بیکیفیت یا گمراهکنندهای را در اختیار آنها قرار دهد.