about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

ویژه‌نامه
1404/07/21 - 09:36- جنگ سایبری

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری؛ روایتی از نبرد میان حامیان غزه و رژیم صهیونیستی

ویژه‌نامه تحلیلی طوفان‌الاقصی سایبری که به مناسبت دومین سالگرد عملیات طوفان‌الاقصی‌ منتشر شده است؛ روایتی از نبرد سایبری میان حامیان‌غزه و رژیم صهیونیستی و هم‌پیمانانش است.

مطالعات موسسات تحقیقاتی استنفورد و کارنگی ملون می‌گوید چت‌بات‌های مبتنی بر هوش مصنوعی نویدبخش نقش‌های حمایتی هستند، اما شواهد فزاینده‌ای هشدار می‌دهند که آن ها به عنوان جایگزینی برای درمانگران واقعی همچنان ناامن هستند.

به گزارش  به گزارش کارگروه فناوری اطلاعات سایبربان , یک مطالعه استنفورد و کارنگی ملون نشان داد که مدل‌های زبانی بزرگ (LLM) مانند GPT-۴o و LLaMA به عنوان جایگزین‌های درمانگر ناامن هستند. تحقیقات محقق تیم هوآ «روان‌پریشی ناشی از هوش مصنوعی» را توصیف کرد و نشان داد که چت‌بات‌ها توهم ایجاد می‌کنند، رفتار‌های پرخطر را تشویق می‌کنند و باور‌های غلط را تأیید می‌کنند. هر دو مطالعه تأکید می‌کنند که اگرچه هوش مصنوعی می‌تواند از درمان در نقش‌های محدود پشتیبانی کند، اما فاقد همدلی، پاسخگویی و مهارت‌های مدیریت بحران است. مشکل چت‌بات‌ها - حداقل در رابطه با آسیب‌پذیرترین کاربران آن ماه گذشته به غم‌انگیزترین شکل ممکن به سالن‌های کنگره رسید. والدین آدام رین ۱۶ ساله در جلسه استماع سنای آمریکا در مورد چگونگی اعتماد پسرشان به چت جی پی تی (ChatGPT) شهادت دادند. اما به جای دریافت کمکی که او نیاز داشت، والدینش می‌گویند که این چت‌بات فقط افکار خودکشی او را تقویت کرده، دستورالعمل‌هایی برای آسیب رساندن به خود ارائه داده و در نهایت باعث شده است که او جان خود را بگیرد. داستان آدام یکی از داستان‌های بسیار زیادی است که بسیاری را بر آن داشته است تا در مورد ایمنی چت‌بات‌ها در نقش‌های درمانی یا شبه‌درمانی سوال کنند؟ (حداقل یک ایالت قبلاً ممنوعیتی علیه استفاده از آنها در چنین محیط‌هایی وضع کرده است.)

و چه کسی وقتی اوضاع خراب می‌شود، مسئولیت را بر عهده دارد؟

یک مطالعه بررسی شده توسط محققان دانشگاه استنفورد و کارنگی ملون، با بررسی مدل‌های زبانی بزرگ (LLM) که سیستم‌های هوش مصنوعی مولد را تغذیه می‌کنند، سعی در رفع این نگرانی‌ها داشت. محققان دریافتند که آنها به عنوان جایگزین‌های مستقیم برای درمانگران همچنان ناامن هستند؛ و یک تحقیق جدیدتر نیز این نگرانی‌ها را تکرار کرد، زمانی که رفتار‌های خاص چت‌بات را با نوعی "روان‌پریشی ناشی از هوش مصنوعی" برابر دانست.

این گزارش‌ها در کنار هم، تحقیقات شتاب‌دهنده - همراه با شواهد رو به رشد - را برجسته می‌کنند که نشان می‌دهد درمان مبتنی بر هوش مصنوعی می‌تواند خطرات واقعی را برای کاربران آسیب‌پذیر ایجاد کند.

مطالعه استنفورد - کارنگی

این طرح تحقیقاتی دانشگاه بررسی می‌کند که چگونه انگ و پاسخ‌های نامناسب، مدل‌های زبانی بزرگ یا LLM‌ها را از جایگزینی ایمن ارائه‌دهندگان خدمات سلامت روان باز می‌دارد. محققان به عنوان بخشی از تحقیقات خود، مدل‌هایی مانند GPT-۴o و خانواده LLaMA متا را در برابر دستورالعمل‌های بالینی برای مراقبت ایمن آزمایش کردند. نیک هابر، نویسنده ارشد و استادیار دانشکده آموزش تحصیلات تکمیلی استنفورد، گفت: "سیستم‌های مبتنی بر مدل‌های زبانی بزرگ یا LLM به عنوان همراه، محرم اسرار و درمانگر استفاده می‌شوند و برخی از افراد مزایای واقعی را مشاهده می‌کنند. اما ما خطرات قابل توجهی را پیدا می‌کنیم و فکر می‌کنم مهم است که جنبه‌های حیاتی‌تر درمان را مشخص کنیم و در مورد برخی از این تفاوت‌های اساسی صحبت کنیم. "

هابر و تیمش دریافتند که:. چت‌بات‌ها در مدیریت بحران اشتباه می‌کنند. مدل‌ها اغلب به طور نامناسبی به افکار خودکشی پاسخ می‌دادند - گاهی اوقات تا جایی پیش می‌رفتند که به جای هدایت بیماران به سمت مکان امن، اطلاعاتی در مورد روش‌های کشنده ارائه می‌دادند.

هیچ یک از مدل‌های آزمایش‌شده، کاربری را که ادعا می‌کرد مرده است، اصلاح نکردند. چت بات‌های درمانی تجاری حتی بدتر عمل کردند و برخی افکار خودکشی را تقویت کردند یا پیشنهاد‌های خطرناکی ارائه دادند. در مقایسه، درمانگران انسانی در ۹۳٪ مواقع به طور مناسب پاسخ دادند.


«روان‌پریشی» ناشی از هوش مصنوعی

در مطالعه‌ای که اخیراً منتشر شده است، تیم هوآ، محقق (و اقتصاددان)، نتایج «تحقیقات سطحی» خود را منتشر کرد که مواردی از ربات‌های چت را که رفتاری بسیار شبیه به روان‌پریشی ایجاد می‌کردند، مستند می‌کرد. البته این موارد بالینی نبودند، اما مطمئناً به این شکل ظاهر می‌شدند که مدل‌ها «توهم» می‌سازند، اقدامات پرخطر را تشویق می‌کنند یا بر باور‌های غلط تأکید می‌کنند.

علاوه بر این ها، روان‌پزشکان درباره ارتباط احتمالی میان مکالمات طولانی با چت‌بات‌های هوش مصنوعی و بروز یا تشدید علائم روان‌پریشی هشدار داده‌اند. گزارش وال‌استریت ژورنال از افزایش نگرانی‌ها درباره تأثیر تعامل‌های عمیق و طولانی با ابزار‌هایی مانند چت جی‌پی‌تی بر سلامت روان خبر می‌دهد.
در ۹ ماه گذشته ده‌ها مورد بالینی در آمریکا و اروپا ثبت شده که بیماران پس از گفت‌و‌گو‌های توأم با توهم و هذیان با چت‌بات‌ها دچار علائم روان‌پریشانه شده‌اند.

کیت ساکاتا، روان‌پزشک دانشگاه کالیفرنیا در سان‌فرانسیسکو می‌گوید: چت‌بات‌ها معمولاً روایت ذهنی کاربر را بدون به‌چالش‌کشیدن می‌پذیرند و همین مسئله می‌تواند مشکل‌ساز شود.

موضوع:

تازه ترین ها
هشدار
1404/10/11 - 09:54- بررسی تخصصی

هشدار مهندس گوگل/ این اطلاعات را هرگز به هوش مصنوعی ندهید

یکی از مهندسان امنیت گوگل با هشدار نسبت به تهدیدهایی مانند نشت اطلاعات و سوءاستفاده مجرمان سایبری، چهار عادت کلیدی را برای صیانت از داده‌های شخصی هنگام استفاده از ابزارهای مبتنی بر هوش مصنوعی پیشنهاد کرده است.

گفت‌و‌گو‌های
1404/10/11 - 09:52- هوش مصنوعي

گفت‌و‌گو‌های طولانی با چت بات‌های هوش مصنوعی خطر روان پریشی را زیاد می‌کند

مطالعات موسسات تحقیقاتی استنفورد و کارنگی ملون می‌گوید چت‌بات‌های مبتنی بر هوش مصنوعی نویدبخش نقش‌های حمایتی هستند، اما شواهد فزاینده‌ای هشدار می‌دهند که آن ها به عنوان جایگزینی برای درمانگران واقعی همچنان ناامن هستند.

کلاهبرداری
1404/10/11 - 09:52- آسیا

کلاهبرداری آنلاین در صدر جرایم سایبری اندونزی در سال ۲۰۲۵

پلیس جاکارتا اعلام کرد که در سال 2025 کلاهبرداری آنلاین بر جرایم سایبری غلبه کرد.