about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

انتشار شده در تاریخ

ChatGPT دوست ما نیست!

جایی که فناوری‌های هوشمند هر روز بیشتر با زندگی ما گره می‌خورند، هوش مصنوعی به ابزاری کلیدی برای یافتن پاسخ و درک جهان تبدیل شده است. اما آیا این ابزار همیشه ما را به حقیقت نزدیک‌تر می‌کند؟ یا گاهی فقط همان چیزی را می‌گوید که دوست داریم بشنویم؟

به گزارش کارگروه فناوری اطلاعات سایبربان , اخیراً، به‌روزرسانی جدیدی از شرکت OpenAI برای ChatGPT منتشر شد که قرار بود تعاملات این مدل را بهبود دهد و پاسخ‌هایش را مفیدتر کند. اما نتیجه، چیزی غیرمنتظره بود. ChatGPT شروع به تأیید و تحسین بیش از حد ایده‌های کاربران کرد، حتی ایده‌های عجیب و غریب.

مثلاً وقتی کاربری به شوخی پیشنهاد فروش «مدفوع روی چوب» را مطرح کرد، این مدل آن را «نابغه‌وار» خواند. این ماجرا، هرچند در نگاه اول خنده‌دار بود، زنگ خطری درباره مسیر توسعه هوش مصنوعی به صدا درآورد.

این رفتار عجیب ریشه در روشی دارد که هوش مصنوعی با آن آموزش می‌بیند: فرآیندی به نام «یادگیری تقویتی از بازخورد انسانی» (RLHF). در این روش، انسان‌ها به مدل‌ها یاد می‌دهند که پاسخ‌هایی بدهند که ما را راضی و خوشحال کند. نتیجه؟ سیستمی که به جای ارائه حقیقت یا دیدگاه‌های چالش‌برانگیز، اغلب فقط تأییدکننده باورها و ایده‌های ماست. این روند، شباهت نگران‌کننده‌ای به شبکه‌های اجتماعی دارد که به جای باز کردن پنجره‌ای به جهان، ما را در اتاق‌های پژواک باورهای خودمان محبوس کرده‌اند.

این موضوع، تنها یک نقص فنی نیست؛ بلکه چالشی عمیق‌تر برای نحوه تعامل ما با فناوری و حتی با خودمان است. وقتی هوش مصنوعی به جای نشان دادن واقعیت، تصویری آراسته و تحریف‌شده از ما ارائه می‌دهد، توانایی ما برای یادگیری، رشد و مواجهه با دیدگاه‌های متفاوت کمرنگ می‌شود.

با این حال، راه‌حلی هم وجود دارد. پژوهشگرانی مانند آلیسون گوپنیک پیشنهاد می‌کنند که به جای نگاه کردن به هوش مصنوعی به عنوان یک دوست یا مشاور، آن را به چشم یک ابزار فرهنگی ببینیم، مثل یک کتابخانه دیجیتال یا یک نقشه جامع. چنین ابزاری باید ما را به دانش بشری، دیدگاه‌های متنوع، و حتی تناقض‌ها و پیچیدگی‌های جهان وصل کند. به جای ارائه پاسخ‌های ساده و خوشایند، باید ما را به پرسشگری و کاوش عمیق‌تر تشویق کند.

متأسفانه، ما اغلب ترجیح می‌دهیم به جای کاوش در این نقشه گسترده، از پاسخ‌های سریع و آماده استفاده کنیم، مثل وقتی که به جای یادگیری مسیرهای یک شهر، فقط به GPS وابسته می‌شویم. این رویکرد، نه تنها درک ما از جهان را سطحی می‌کند، بلکه ما را از فرصت‌های واقعی یادگیری محروم می‌سازد.

هوش مصنوعی این پتانسیل را دارد که ما را به ایده‌های جدید، تاریخ بشری، و دیدگاه‌های دیگران متصل کند. می‌تواند به ما نشان دهد که دیگران چگونه فکر کرده‌اند، کجا اختلاف‌نظر وجود دارد و کجا اجماع شکل گرفته است. اما برای تحقق این پتانسیل، باید از طراحی سیستم‌هایی که صرفاً برای جلب رضایت ما ساخته شده‌اند، فاصله بگیریم.

اگر این تغییر را ایجاد نکنیم، خطر اینجاست که هوش مصنوعی، که می‌توانست دریچه‌ای به سوی دانش عمیق‌تر باشد، به چیزی سطحی و بی‌ارزش تبدیل شود، مانند همان ایده عجیب «مدفوع روی چوب»: ظاهری فریبنده، اما بدون محتوا. آینده هوش مصنوعی به این بستگی دارد که ما چگونه آن را شکل می‌دهیم:به عنوان ابزاری برای کشف حقیقت یا صرفاً آینه‌ای برای تأیید خودمان.

موضوع:

تازه ترین ها
هشدار
1404/03/26 - 19:02- هوش مصنوعي

هشدار سازمان ملل متحد نسبت به تهدیدات هوش مصنوعی

سازمان ملل متحد خواستار اقدام جهانی در مورد تهدیدات هوش مصنوعی شد.

حمله
1404/03/26 - 16:44- جرم سایبری

حمله سایبری به ادارات دولتی کارولینای شمالی و جورجیا

یک شهرداری در کارولینای شمالی و دفتر دادستانی منطقه‌ای که چهار شهر در جورجیا را پوشش می‌دهد، با مشکلات عملیاتی ناشی از حملات سایبری اخیر روبه‌رو هستند.

هشدار
1404/03/26 - 16:23- آسیب پذیری

هشدار سازمان امنیت سایبری آمریکا در مورد آسیب پذیری سیمپل هلپ

مقامات امنیت سایبری فدرال آمریکا اعلام کردند که باندهای باج افزار اخیراً از یک آسیب پذیری در نرم افزار کنترل از راه دور دستگاهها به نام سمپل هلپ در طی یک سری حملات سوءاستفاده کرده اند.