خطای ۴۵ درصدی دستیارهای هوش مصنوعی در پاسخ به اخبار
به گزارش کارگروه فناوری اطلاعات سایبربان ، بیبیسی گزارش داد متخصصان خبری بیش از سه هزار پاسخ تولیدشده از چهار دستیار محبوب هوش مصنوعی چت جیپیتی، کوپایلت، جمینای و پرپلکسیتی را بر اساس معیارهایی نظیر صحت، منابع و تفکیک بین نظر و واقعیت ارزیابی کردند.
بر اساس نتایج، ۴۵ درصد از پاسخها دستکم یک مشکل مهم داشتند.
در ۳۱ درصد موارد مشکلات جدی در ارجاعدهی مشاهده شد: منابع یا ذکر نشده بودند یا گمراهکننده و نادرست بودند.
همچنین ۲۰ درصد پاسخها دچار ایرادهای عمده در دقت اطلاعات، از جمله جزییات ساختگی و اطلاعات منسوخ شده بودند.
در این میان، جمینای با ۷۶ درصد خطا، ضعیفترین عملکرد را داشت.
اهمیت اعتماد عمومی
محققان هشدار میدهند که با گسترش استفاده از دستیارهای هوش مصنوعی بهعنوان مسیر دریافت اخبار، خطر پخش اطلاعات نادرست و تضعیف اعتماد عمومی افزایش مییابد.
بر پایه گزارش سالانه موسسه رویترز، هفت درصد از کل خبرخوانان آنلاین از دستیاران هوش مصنوعی استفاده میکنند.
این نسبت برای جوانان زیر ۲۵ سال به ۱۵ درصد افزایش مییابد.
ژان فیلیپ دو تندر، مدیر رسانهای و معاون دبیرکل ییبییو، با تاکید بر این نکته که خطاها «سیستماتیک، فراملی و چند زبانی» هستند، گفت: «این وضعیت میتواند اعتماد مردم را تضعیف کند و مشارکت دموکراتیک را تحت تاثیر قرار دهد.»
بیبیسی در تحقیقی جداگانه دریافت بسیاری از مردم به دقت خلاصههای خبری هوش مصنوعی اعتماد دارند.
در بریتانیا حدود یک سوم بزرگسالان کاملا به این ابزارها اعتماد دارند. این میزان برای افراد زیر ۳۵ سال تقریبا به نصف میرسد.
پیشنهادها و راهکارها
تیم تحقیق با هدف جلوگیری از پخش اطلاعات نادرست «جعبهابزار راستیآزمایی دستیاران هوش مصنوعی» منتشر کرده است.
این جعبهابزار شامل نمونههایی از خطاها، راهکارهای اصلاح و رهنمودهایی برای خبرنگاران و توسعهدهندگان است.
علاوه بر این، اتحادیه پخش اروپایی از ناظران ملی و اتحادیهای خواست تا قوانین مربوط به سلامت اطلاعات و خدمات دیجیتال را اجرا کنند و بر لزوم نظارت مستقل و مداوم بر دستیاران هوش مصنوعی تاکید کرد.
این پژوهش در پایان تاکید کرده است خطاهای موجود در دستیارهای هوش مصنوعی، «سیستماتیک و فراگیر» است و تنها با همکاری نزدیک رسانهها، نهادهای ناظر و شرکتهای فناوری میتوان از گسترش اطلاعات نادرست جلوگیری کرد.