about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

حمله
1404/03/27 - 20:40- آسیا

حمله سایبری به بانک سپه

هکرهای گنجشک درنده(گروهی منتسب به آمریکا) مدعی حمله سایبری به بانک سپه شدند.

آیا استفاده از ChatGPT هوش ما را کاهش می‌دهد و ما را تنبل می‌کند؟ یک پژوهش جدید به بررسی تاثیر این ابزار بر مغز می‌پردازد و نتایج آن فراتر از تصور است.

به گزارش کارگروه فناوری اطلاعات سایبربان ، از زمان عرضه ChatGPT در سال ۲۰۲۲ هوش مصنوعی مولد به سرعت وارد زندگی کاری، تحصیلی و شخصی ما شد. این فناوری به ما کمک کرد تا تحقیق، تولید محتوا و بسیاری از کارهای دیگر را با سرعتی بی‌سابقه انجام دهیم.

اشتیاق برای ابزارهای هوش مصنوعی مولد به طور قابل درکی افزایش یافته است. سرعت پذیرش آن حتی از اینترنت یا کامپیوترهای شخصی نیز بیشتر بود. اما کارشناسان هشدار می‌دهند که باید با احتیاط پیش برویم.

هوش مصنوعی مولد مانند هر فناوری جدید دیگری می‌تواند جامعه را به جلو ببرد، اما اگر کنترل نشود عواقبی نیز به همراه خواهد داشت.

یکی از این صداهای منتقد ناتاشا گاوندر-روپرت، مدیر بخش هوش مصنوعی جرایم مالی در رابوبانک است. او درباره اخلاق و تعصب در هوش مصنوعی و اینکه آیا ما در حال برون‌ سپاری مغزمان به ماشین‌ها هستیم صحبت می‌کند.

یک سوال مهم که ذهن ما را درگیر می‌کند این است که با افزایش وابستگی ما به هوش مصنوعی مولد برای یافتن پاسخ‌ها، این اتکا چه تاثیری بر هوش ما خواهد داشت؟

مغز شما هنگام استفاده از ChatGPT چگونه کار می‌کند؟

در این پژوهش، محققان به ۵۴ دانشجو یک وظیفه مقاله‌ نویسی دادند. یک گروه از ChatGPT استفاده کردند و گروه دیگر از گوگل بدون کمک هوش مصنوعی. گروه سوم نیز مجبور بودند فقط با استفاده از مغز خود مقاله بنویسد.

در حین نوشتن، فعالیت مغزی آن‌ها با استفاده از الکترودها اندازه‌گیری شد. پس از سه جلسه، گروهی که فقط از مغز خود استفاده کرده بود، بالاترین سطح اتصال ذهنی را نشان داد. در مقابل، کاربران ChatGPT کمترین سطح را داشتند. به نظر می‌رسید افرادی که از هوش مصنوعی کمک می‌گرفتند روی حالت خودکار بودند.

در دور چهارم نقش‌ها برعکس شد. گروهی که فقط از مغز خودشان استفاده کرده بودند، این بار از ChatGPT کمک گرفتند. در حالی که گروه هوش مصنوعی مجبور شدند به تنهایی و بدون کمک مقاله بنویسند.

نتیجه این بود که گروه اول مقالات خود را بهبود بخشیدند، اما گروه دوم برای به خاطر آوردن آنچه قبلا نوشته بودند، دچار مشکل شدند. به طور کلی این مطالعه نشان داد که در طول چهار ماه شرکت‌ کنندگانی که فقط از مغزشان استفاده کردند در سطوح عصبی، زبانی و رفتاری عملکرد بهتری داشتند. در حالی که افراد با استفاده از ChatGPT زمان کمتری را صرف مقالات خود می‌کردند.

آیا استفاده از ChatGPT به مرگ تفکر انتقادی منجر می‌شود؟

معلمانی که مقالات را بررسی کردند گفتند که فاقد تفکر اصیل و روح هستند. این یافته‌ها بیشتر از آنکه درباره تحلیل رفتن مغز باشند درباره میانبرهای ذهنی هستند.

آن‌ها نشان دادند که اتکای بیش از حد به مدل‌های زبان بزرگ می‌تواند تعامل ذهنی را کاهش دهد. اما با استفاده فعال و متفکرانه می‌توان از این خطرات جلوگیری کرد.

محققان همچنین تاکید کردند که این مطالعه برای نتیجه‌گیری قطعی بسیار کوچک و ساده بود. در واقع شاید چیزی که واقعا مغز ما را می‌پوساند، تیترهای کلیک‌ محور و جنجالی رسانه‌ها باشد.

به نظر می‌رسد خود محققان نیز این نگرانی‌ها را دارند. آن‌ها یک وب‌سایت با صفحه پرسش‌های متداول ایجاد کردند. در آنجا از خبرنگاران خواستند از زبانی که نادرست است و یافته‌ها را جنجالی می‌کند استفاده نکنند.

آن‌ها این هیاهوی رسانه‌ای را به خبرنگارانی که از مدل‌های زبان بزرگ برای خلاصه کردن مقاله استفاده کرده بودند، نسبت دادند. این موضوع نشان می‌دهد که دانشجویان، خبرنگاران و عموم مردم باید نسبت به اطلاعاتی که دریافت می‌کنند نگاهی منتقدانه داشته باشند. چه این اطلاعات از رسانه‌ها باشد چه از هوش مصنوعی مولد.

تعصب در هوش مصنوعی؛ مشکلی عمیق‌تر از آنچه فکر می‌کنیم

پژوهشگران دانشگاه وریج آمستردام نگران هستند که با افزایش اتکای ما به مدل‌های زبانی بزرگ، تفکر انتقادی ما در معرض خطر قرار گیرد. تفکر انتقادی یعنی توانایی و تمایل ما برای زیر سوال بردن و تغییر هنجارهای اجتماعی.

دانشجویان ممکن است کمتر به فرآیندهای جستجوی جامع بپردازند. زیرا به لحن معتبر و آگاهانه خروجی هوش مصنوعی مولد اعتماد می‌کنند. آن‌ها ممکن است کمتر دیدگاه‌های ناگفته در پس خروجی را زیر سوال ببرند. در نتیجه نمی‌توانند بفهمند چه دیدگاه‌هایی نادیده گرفته شده است.

این خطرات به یک مشکل عمیق‌تر در هوش مصنوعی اشاره دارد. وقتی خروجی‌های آن را بدون چون و چرا می‌پذیریم، ممکن است تعصبات پنهان و فرضیات چالش‌برانگیز را نادیده بگیریم.

حل این مشکل فقط به راه‌حل‌های فنی نیاز ندارد، بلکه نیازمند تاملی انتقادی درباره معنای خود تعصب است. به گفته ناتاشا گاوندر-روپرت تعصب تعریف ثابتی ندارد، چیزی که من مغرضانه می‌دانم ممکن است برای شخص دیگری متفاوت باشد.

ما به عنوان انسان باید تصمیم بگیریم و بگوییم این استاندارد اصولی است که هنگام بررسی داده‌هایمان اعمال خواهیم کرد. هنجارها و تعصبات اجتماعی ثابت نیستند و همیشه در حال تغییرند.

با تکامل جامعه، داده‌های تاریخی که مدل‌های زبان بزرگ ما بر اساس آن آموزش دیده‌اند، تکامل نمی‌یابند. ما باید منتقد باقی بمانیم و اطلاعاتی را که دریافت می‌کنیم به چالش بکشیم تا جامعه‌ای عادلانه‌تر بسازیم.

منبع:

موضوع:

تازه ترین ها
هشدار
1404/06/06 - 11:45- اروپا

هشدار بریتانیا و 12 متحد دیگر درمورد حملات سایبری چین

بریتانیا و ۱۲ متحد آن در مورد حملات سایبری چین به بخش‌های حیاتی هشدار دادند.

نبرد
1404/06/06 - 11:06- هوش مصنوعي

نبرد مدل‌های هوش مصنوعی؛ مروری بر تفاوت‌های GPT-۴o و GPT-۵

عرضه مدل هوش مصنوعی جدید «GPT-۵» توسط شرکت «OpenAI» در مرداد ۱۴۰۴ یکی از برجسته‌ترین رخدادهای اخیر در چشم‌انداز جهانی این فناوری نوظهور محسوب می‌شود.

اسپاتیفای به یک پیام‌رسان داخلی مجهز می‌شود؛ با دوستانتان چت کنید و آهنگ گوش دهید

با قابلیت جدید پیام‌رسان در اسپاتیفای، تعاملات اجتماعی در این پلتفرم وارد مرحله جدیدی می‌شود.