نیمی از اطلاعات چت باتهای هوش مصنوعی اشتباه است
به گزارش کارگروه فناوری اطلاعات سایبربان , مطالعهای جدید با مشارکت ۲۲ سازمان رسانهای عمومی از جمله دویچهوله (DW)، بیبیسی و انپیآر نشان میدهد که چهار چتبات پرکاربرد هوش مصنوعی (چتجیپیتی، کوپایلت مایکروسافت، جمنای گوگل و پرپلکسیتیایآی) در ۴۵ درصد موارد، محتوای خبری را بهصورت نادرست ارائه میدهند. این مشکل در زبانها و مناطق جغرافیایی مختلف مشاهده شده و میتواند اعتماد عمومی به اخبار را تضعیف کند.
در این بررسی، ۳۰۰۰ پاسخ این چتباتها به پرسشهای خبری تحلیل شد. نتایج نشان داد که نیمی از پاسخها حداقل یک ایراد جدی داشتند؛ ۳۱ درصد با مشکل منبعیابی و ۲۰ درصد با خطاهای واقعی عمده مواجه بودند. دویچهوله گزارش داد که ۵۳ درصد از پاسخهای ارائهشده به پرسشهایش ایرادات قابلتوجه داشتند؛ از جمله ۲۹ درصد که حاوی خطاهای دقیق بودند.
برای نمونه، برخی چتباتها اولاف شولتز را بهعنوان صدراعظم آلمان معرفی کردهاند، در حالی که فریدریش مرتس یک ماه پیش این سمت را بر عهده گرفته بود. همچنین، در مواردی ینس استولتنبرگ بهعنوان دبیرکل ناتو ذکر شده، در حالی که مارک روته این مسئولیت را در اختیار دارد.
ژان فیلیپ دِ تندر، معاون مدیرکل اتحادیه پخش اروپا (EBU) که مسئولیت هماهنگی این مطالعه را بر عهده داشت، هشدار داد: «این نقصها ساختاریافته، فرامرزی و چندزبانه هستند. زمانی که مردم ندانند به کدام اطلاعات میتوان اعتماد کرد، ممکن است به هیچچیز اعتماد نکنند؛ و این بیاعتمادی میتواند مشارکت مردم در فرآیندهای سیاسی و اجتماعی را تضعیف کند.»
بر اساس گزارش دیجیتال مؤسسه رویترز در سال ۲۰۲۵، ۷ درصد از کاربران اخبار آنلاین و ۱۵ درصد از افراد زیر ۲۵ سال از چتباتهای هوش مصنوعی برای دریافت اخبار استفاده میکنند. این مطالعه تأیید میکند که دستیارهای هوش مصنوعی بهطور ساختاریافته در ارائه اخبار دچار تحریف هستند.
پژوهشی گسترده درباره خطاهای هوش مصنوعی
این تحقیق، یکی از گستردهترین مطالعات در نوع خود محسوب میشود و پس از بررسی مشابهی که در فوریه ۲۰۲۵ توسط بیبیسی انجام شد، صورت گرفته است. در آن بررسی، مشخص شد که بیش از نیمی از پاسخهای هوش مصنوعی دارای ایرادات جدی بودند و یکپنجم پاسخهایی که به محتوای بیبیسی استناد کرده بودند، شامل خطاهای واقعی بودند. مطالعه جدید با همان روششناسی، پاسخهای چتباتها به پرسشهایی مانند «توافق مواد معدنی اوکراین چیست؟» یا «آیا ترامپ میتواند برای دوره سوم نامزد شود؟» را در ۱۸ کشور و به ۱۴ زبان مختلف بررسی کرده است.
خبرنگاران پاسخها را بدون اطلاع از منبع چتبات و صرفاً بر اساس تخصص و منابع حرفهای خود ارزیابی کردند. معیارهای ارزیابی شامل دقت، منبعسنجی، ارائه زمینه، ویرایش مناسب و تمایز میان واقعیت و نظر بود. نتایج نشاندهنده بهبود جزئی نسبت به مطالعه بیبیسی است، اما میزان خطاها همچنان بالا باقی مانده است. جمنای با ۷۲ درصد مشکل در منبعیابی، ضعیفترین عملکرد را داشت. هر چهار چتبات در هر دو مطالعه با چالشهای مشابهی مواجه بودند.
پیتر آرچر، مدیر برنامه هوش مصنوعی مولد در بیبیسی، گفت: «ما نسبت به ظرفیتهای هوش مصنوعی برای مخاطبان هیجانزدهایم، اما مردم باید بتوانند به آنچه میخوانند اعتماد کنند. با وجود برخی پیشرفتها، مشکلات قابلتوجهی همچنان پابرجاست.»
سخنگوی شرکت اوپنایآی، توسعهدهنده چتجیپیتی، در فوریه به بیبیسی گفت: «ما از ناشران حمایت میکنیم و به ۳۰۰ میلیون کاربر هفتگی چتجیپیتی کمک میکنیم تا از طریق خلاصهها، نقلقولها و لینکهای شفاف، به محتوای باکیفیت دسترسی پیدا کنند.»
فراخوان برای نظارت و مسئولیتپذیری
سازمانهای رسانهای خواستار اقدام دولتهای ملی و نهادهای تنظیمگر اتحادیه اروپا برای اجرای قوانین مرتبط با یکپارچگی اطلاعات، خدمات دیجیتال و تنوع رسانهای شدند. آنها تأکید کردند که نظارت مستقل بر عملکرد چتباتهای هوش مصنوعی باید در اولویت قرار گیرد، بهویژه با توجه به سرعت عرضه مدلهای جدید.
اتحادیه پخش اروپا (EBU) به همراه دیگر گروههای رسانهای بینالمللی، کمپین «حقایق وارد: حقایق خارج» را راه انداختهاند تا شرکتهای فعال در حوزه هوش مصنوعی را به مسئولیتپذیری در قبال مدیریت و بازتوزیع اخبار وادار کنند.
برگزارکنندگان این کمپین اعلام کردند: «وقتی این سیستمها اخبار معتبر را تحریف یا از زمینه خارج میکنند، اعتماد عمومی را تضعیف میکنند. خواسته ما ساده است: اگر حقایق وارد شوند، باید حقایق خارج شوند.»