about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

طبق پژوهش محققان، آموزش هوش مصنوعی با محتوای کم کیفیت و بی ارزش، باعث پوسیدگی مغز و در نتیجه آسیب شناختی ماندگار می‌شود.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ اگر مدت‌زمان کوتاهی را در کنار نوجوان‌ها یا کاربران جوان‌تر سپری کرده باشید، احتمالاً واژه پوسیدگی مغز (Brain Rot)  به گوشتان خورده است. این واژه که در سال ۲۰۲۴ میلادی به‌عنوان واژه سال آکسفورد انتخاب شد، درواقع به تضعیف یا فرسایش توان ذهنی یا فکری فرد اشاره دارد.

پوسیدگی مغز پدیده‌ای است که معمولاً در اثر مصرف بیش‌ازحد محتوای سطحی، کم‌ارزش و بی چالش به‌ویژه در فضای مجازی رخ می‌دهد؛ اما ظاهراً این فقط ذهن انسان‌ها نیست که از این محتوا آسیب می‌بیند.

تحقیقی عجیب درباره آسیب‌های وارده به هوش مصنوعی

اخیراً دانشگاه‌های Texas A&M، تگزاس آستین و Purdue، پژوهشی را انجام داده‌اند که در آن مشخص شده که قرار گرفتن مداوم مدل‌های زبانی بزرگ (LLM) در معرض متون بی‌کیفیت اینترنتی، موجب افت دائمی در عملکرد شناختی و استدلالی مدل‌های زبانی هم می‌شود.

این پژوهش که هنوز مرحله داوری علمی (peer review) را طی نکرده، حکایت از آن دارد که قدرت استدلال، درک زمینه و انسجام فکری هوش مصنوعی به‌مرور با تغذیه از داده‌های بی‌کیفیت کاهش پیدا می‌کند. محققان در این مطالعه، مدل‌های زبانی را با پست‌های وایرال و کلیک خور شبکه اجتماعی X (توییتر سابق) آموزش دادند و متوجه شدند که مدل‌ها بخش‌هایی از زنجیره‌های فکری خود را در گذر زمان کنار گذاشته‌اند.

پژوهشگران این پدیده را جهش فکری (Thought-Skipping) نامیدند. طبق توضیح آن‌ها مدل‌ها به‌صورت فزاینده‌ای زنجیره‌های استدلالی خود را کوتاه یا حذف می‌کنند و همین موضوع، دلیل اصلی افزایش خطاهای آنهاست.

 

موضوع نگران‌کننده‌تر این است که طبق مشاهده محققان، قرار دادن مدل‌ها در معرض چنین محتواهایی، باعث افزایش گرایش‌های روان‌پریشانه و خودشیفته‌گرایانه در آن‌ها نیز می‌شود.

البته این یافته آن‌چنان هم عجیب نیست. چرا که تحقیقات مشابه متعددی در مورد انسان‌ها هم نشان داده‌اند که محتوای سطحی و کم‌مایه اینترنتی با مواردی مثل سستی تحصیلی، کاهش کارکردهای شناختی، حالت‌های گسست ذهنی و حتی اثرات منفی جسمی ارتباط مستقیم دارد.

تا چندی پیش شبکه‌های اجتماعی، محلی برای تعامل انسانی به شمار می‌آمدند؛ ولی حالا بیش از هر زمان دیگری به خوراک بی‌پایانی از محتوای بی‌کیفیت تبدیل‌شده‌اند که باعث می‌شود تا انسان‌ها کندتر، غمگین‌تر، کم‌هوش‌تر و ناسالم‌تر شوند.

الگوی مشابه انسان و ماشین

باوجودی که شیوه یادگیری انسان‌ها و ماشین‌ها با هم تفاوت دارند ، اما الگوی کلی در هر دو، مشابه است: هم انسان و هم ماشین از داده‌های موجود می‌آموزند و از آن‌ها الگو می‌سازند.

به همین خاطر هرچه کیفیت داده‌های ورودی پایین‌تر باشد، توانایی هر دو سیستم در درک دقیق الگوهای جدید و چالش‌های شناختی کاهش پیدا می‌کند.

اما نکته تاریک‌تر پژوهش اینجاست که بعد از آسیب‌های وارد شده، وقتی محققان سعی کردند با تزریق داده‌های باکیفیت‌تر اثر این "سوءتغذیه دیجیتال" را جبران کنند، تلاش‌هایشان ناموفق بود و آسیب‌های شناختی همچنان پابرجا باقی ماند.

در گزارشی که دراین‌باره منتشرشده می‌خوانیم: «این شکاف نشان می‌دهد که اثر "پوسیدگی مغز" به‌طور عمیقی در مدل‌ها درونی شده و تنظیمات آموزشی فعلی قادر به اصلاح آن نیستند. در آینده باید از روش‌های قوی‌تری برای کاهش این اثرات استفاده شود.»

این مطالعه یک بار دیگر خطرهای قرار گرفتن انسان و حتی هوش مصنوعی در معرض آموزش با داده‌های بی‌کیفیت، غیرقابل‌کنترل و فاقد نظارت علمی را یادآوری می‌کند و این هشدار زمانی جدی‌تر می‌شود که محققان در تحقیقات دیگری هم یادآور شده‌اند که وابستگی بیش‌ازحد انسان‌ها به هوش مصنوعی، باعث افت توانایی‌های شناختی خود آنها نیز خواهد شد.

Paragraphs
هوش

موضوع:

تازه ترین ها
بومی‌سازی
1404/08/17 - 18:48- هوش مصنوعي

بومی‌سازی هوش مصنوعی در بیمارستان‌های دانشگاه آزاد

مدیر سلامت دانشگاه آزاد از راه اندازی استارت‌آپ ویکند سلامت با محوریت هوش مصنوعی و بیمارستان متاورس خبر داد و گفت: هدف اصلی ما، بومی‌سازی هوش مصنوعی در بیمارستان‌ها است.

مدل‌های
1404/08/17 - 18:45- هوش مصنوعي

مدل‌های استدلال‌گر بیش از دیگر هوش مصنوعی‌ها در برابر حملات «جیلبریک» آسیب‌پذیرند

نتایج مطالعه‌ای مشترک از سوی انتروپیک، دانشگاه آکسفورد و دانشگاه استنفورد حاکی از آن است که مدل‌های پیشرفته هوش مصنوعی با توانایی «استدلال و تفکر چندمرحله‌ای»، برخلاف تصور پیشین، بیش از سایر مدل‌ها نسبت به هک و حملات جیلبریک آسیب‌پذیر هستند.

ایلان
1404/08/17 - 18:37- ابزارهای هوشمند

ایلان ماسک: ربات اپتیموس تسلا فقر را ریشه‌کن خواهد کرد

ایلان ماسک در جلسه سهامداران تسلا و پس از تأیید بسته حقوقی ۱ تریلیون دلاری‌اش ادعا کرد که ربات اپتیموس فقر را ریشه‌کن می‌کند.