گفتوگوهای طولانی با چت باتهای هوش مصنوعی خطر روان پریشی را زیاد میکند
به گزارش به گزارش کارگروه فناوری اطلاعات سایبربان , یک مطالعه استنفورد و کارنگی ملون نشان داد که مدلهای زبانی بزرگ (LLM) مانند GPT-۴o و LLaMA به عنوان جایگزینهای درمانگر ناامن هستند. تحقیقات محقق تیم هوآ «روانپریشی ناشی از هوش مصنوعی» را توصیف کرد و نشان داد که چتباتها توهم ایجاد میکنند، رفتارهای پرخطر را تشویق میکنند و باورهای غلط را تأیید میکنند. هر دو مطالعه تأکید میکنند که اگرچه هوش مصنوعی میتواند از درمان در نقشهای محدود پشتیبانی کند، اما فاقد همدلی، پاسخگویی و مهارتهای مدیریت بحران است. مشکل چتباتها - حداقل در رابطه با آسیبپذیرترین کاربران آن ماه گذشته به غمانگیزترین شکل ممکن به سالنهای کنگره رسید. والدین آدام رین ۱۶ ساله در جلسه استماع سنای آمریکا در مورد چگونگی اعتماد پسرشان به چت جی پی تی (ChatGPT) شهادت دادند. اما به جای دریافت کمکی که او نیاز داشت، والدینش میگویند که این چتبات فقط افکار خودکشی او را تقویت کرده، دستورالعملهایی برای آسیب رساندن به خود ارائه داده و در نهایت باعث شده است که او جان خود را بگیرد. داستان آدام یکی از داستانهای بسیار زیادی است که بسیاری را بر آن داشته است تا در مورد ایمنی چتباتها در نقشهای درمانی یا شبهدرمانی سوال کنند؟ (حداقل یک ایالت قبلاً ممنوعیتی علیه استفاده از آنها در چنین محیطهایی وضع کرده است.)
و چه کسی وقتی اوضاع خراب میشود، مسئولیت را بر عهده دارد؟
یک مطالعه بررسی شده توسط محققان دانشگاه استنفورد و کارنگی ملون، با بررسی مدلهای زبانی بزرگ (LLM) که سیستمهای هوش مصنوعی مولد را تغذیه میکنند، سعی در رفع این نگرانیها داشت. محققان دریافتند که آنها به عنوان جایگزینهای مستقیم برای درمانگران همچنان ناامن هستند؛ و یک تحقیق جدیدتر نیز این نگرانیها را تکرار کرد، زمانی که رفتارهای خاص چتبات را با نوعی "روانپریشی ناشی از هوش مصنوعی" برابر دانست.
این گزارشها در کنار هم، تحقیقات شتابدهنده - همراه با شواهد رو به رشد - را برجسته میکنند که نشان میدهد درمان مبتنی بر هوش مصنوعی میتواند خطرات واقعی را برای کاربران آسیبپذیر ایجاد کند.
مطالعه استنفورد - کارنگی
این طرح تحقیقاتی دانشگاه بررسی میکند که چگونه انگ و پاسخهای نامناسب، مدلهای زبانی بزرگ یا LLMها را از جایگزینی ایمن ارائهدهندگان خدمات سلامت روان باز میدارد. محققان به عنوان بخشی از تحقیقات خود، مدلهایی مانند GPT-۴o و خانواده LLaMA متا را در برابر دستورالعملهای بالینی برای مراقبت ایمن آزمایش کردند. نیک هابر، نویسنده ارشد و استادیار دانشکده آموزش تحصیلات تکمیلی استنفورد، گفت: "سیستمهای مبتنی بر مدلهای زبانی بزرگ یا LLM به عنوان همراه، محرم اسرار و درمانگر استفاده میشوند و برخی از افراد مزایای واقعی را مشاهده میکنند. اما ما خطرات قابل توجهی را پیدا میکنیم و فکر میکنم مهم است که جنبههای حیاتیتر درمان را مشخص کنیم و در مورد برخی از این تفاوتهای اساسی صحبت کنیم. "
هابر و تیمش دریافتند که:. چتباتها در مدیریت بحران اشتباه میکنند. مدلها اغلب به طور نامناسبی به افکار خودکشی پاسخ میدادند - گاهی اوقات تا جایی پیش میرفتند که به جای هدایت بیماران به سمت مکان امن، اطلاعاتی در مورد روشهای کشنده ارائه میدادند.
هیچ یک از مدلهای آزمایششده، کاربری را که ادعا میکرد مرده است، اصلاح نکردند. چت باتهای درمانی تجاری حتی بدتر عمل کردند و برخی افکار خودکشی را تقویت کردند یا پیشنهادهای خطرناکی ارائه دادند. در مقایسه، درمانگران انسانی در ۹۳٪ مواقع به طور مناسب پاسخ دادند.
«روانپریشی» ناشی از هوش مصنوعی
در مطالعهای که اخیراً منتشر شده است، تیم هوآ، محقق (و اقتصاددان)، نتایج «تحقیقات سطحی» خود را منتشر کرد که مواردی از رباتهای چت را که رفتاری بسیار شبیه به روانپریشی ایجاد میکردند، مستند میکرد. البته این موارد بالینی نبودند، اما مطمئناً به این شکل ظاهر میشدند که مدلها «توهم» میسازند، اقدامات پرخطر را تشویق میکنند یا بر باورهای غلط تأکید میکنند.
علاوه بر این ها، روانپزشکان درباره ارتباط احتمالی میان مکالمات طولانی با چتباتهای هوش مصنوعی و بروز یا تشدید علائم روانپریشی هشدار دادهاند. گزارش والاستریت ژورنال از افزایش نگرانیها درباره تأثیر تعاملهای عمیق و طولانی با ابزارهایی مانند چت جیپیتی بر سلامت روان خبر میدهد.
در ۹ ماه گذشته دهها مورد بالینی در آمریکا و اروپا ثبت شده که بیماران پس از گفتوگوهای توأم با توهم و هذیان با چتباتها دچار علائم روانپریشانه شدهاند.
کیت ساکاتا، روانپزشک دانشگاه کالیفرنیا در سانفرانسیسکو میگوید: چتباتها معمولاً روایت ذهنی کاربر را بدون بهچالشکشیدن میپذیرند و همین مسئله میتواند مشکلساز شود.