about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

مطالعه جدید نشان می‌دهد ابزار جستجوی چت‌بات‌های هوش مصنوعی در 60 درصد مواقع اشتباه می‌کنند. برخی مدل‌ها حتی تا 94 درصد خطا دارند.

به گزارش کارگروه فناوری اطلاعات سایبربان , پژوهش جدیدی که مرکز روزنامه‌نگاری دیجیتال «Tow» در دانشگاه کلمبیا انجام داده است، نشان می‌دهد مدل‌های هوش مصنوعی مجهز به قابلیت جستجو در اینترنت به میزان نگران‌کننده‌ای اطلاعات نادرست ارائه می‌دهند. محققان 8 مدل مختلف ازجمله ChatGPT Search و گوگل Gemini را بررسی کردند و دریافتند درکل، این ابزارها بیش از 60 درصد سؤالات را اشتباه پاسخ می‌دهند.

طبق گزارش «Columbia Journalism Review» برای مثال، مدل Perplexity AI که دقیق‌ترین ابزار در این آزمایش‌ها بود، همچنان 37 درصد پاسخ‌های خود را اشتباه ارائه می‌داد. از سوی دیگر، قابلیت جستجوی Grok 3 که متعلق به ایلان ماسک است، با نرخ خطای 94 درصد بدترین عملکرد را داشت.

این مطالعه نشان داد برخلاف موتورهای جستجوی سنتی که کاربران را به منابع معتبر هدایت می‌کنند، ابزارهای جستجوی مبتنی‌بر هوش مصنوعی اطلاعات را پردازش و بازسازی می‌کنند و جریان ترافیک را از منابع اصلی قطع می‌کنند. این ابزارها به‌جای امتناع از پاسخ‌گویی درصورت نبود اطلاعات معتبر، اغلب اطلاعات نادرستی ارائه می‌دهند که قابل‌توجیه به‌ نظر می‌رسند.

علاوه‌براین، پژوهشگران دریافتند برخی مدل‌های پولی حتی از نسخه‌های رایگان نیز عملکرد بدتری داشتند؛ برای مثال، نسخه پولی «Perplexity Pro» که با هزینه 20 دلار در ماه ارائه می‌شود، نسبت به نسخه رایگان خود با اطمینان بالا پاسخ اشتباه بیشتر می‌داد.

یکی دیگر از مشکلات مهم این ابزارها رعایت‌نکردن پروتکل‌های جلوگیری از دسترسی به محتوای ناشران بود؛ برای مثال، نسخه رایگان «Perplexity» توانست مقالاتی را از «National Geographic» استخراج کند، درحالی‌که این ناشر دسترسی به خزنده‌های وب Perplexity را مسدود کرده بود.

دقت قابلیت‌های جستجو با هوش مصنوعی چالشی بزرگ است

علاوه‌براین، حتی زمانی که این ابزارها منابع داده‌های خود را ذکر می‌کنند، اغلب کاربران را به نسخه‌های بازتوزیع‌شده در پلتفرم‌هایی مانند «Yahoo News» هدایت می‌کنند، به‌جای آنکه لینک اصلی مقاله را ارائه دهند. در برخی موارد، این مدل‌ها حتی لینک‌های جعلی تولید می‌کردند که کاربران را به صفحات ناموجود هدایت می‌کرد.

باوجود پیشرفت‌های چشمگیر در فناوری هوش مصنوعی، مدل‌هایی با قابلیت جستجو هنوز مشکلات جدی در دقت و صحت ارائه اطلاعات دارند. ناشران با چالش‌های زیادی روبه‌رو هستند؛ زیرا یا باید اجازه دهند محتوای آنها بدون هدایت ترافیک به وب‌سایتشان استفاده شود یا به‌کلی از این فناوری کنار گذاشته شوند. این موضوع می‌تواند تأثیرات قابل‌توجهی بر صنعت رسانه و نحوه دسترسی کاربران به اخبار معتبر داشته باشد.

Paragraphs
قابلیت
قابلیت

منبع:

تازه ترین ها
همکاری
1404/09/25 - 17:13- آسیا

همکاری شرکت دِل و گروه ادارات برای تقویت تاب‌آوری سایبری در عربستان

شرکت دِل و گروه ادارات برای افزایش تاب‌آوری سایبری و راهکارهای ابری در عربستان سعودی با یکدیگر همکاری کردند.

تقویت
1404/09/25 - 16:37- آسیا

تقویت آمادگی سایبری در امارات با مشارکت مؤسسه SANS

مؤسسه «SANS» با شورای امنیت سایبری امارات متحده عربی برای تقویت آمادگی سایبری ملی مشارکت کردند.

محدودیت‌ دسترسی نوجوانان به رسانه‌های اجتماعی در کره جنوبی

نامزد کره جنوبی برای ریاست کمیسیون رسانه‌ای، به دنبال اعمال محدودیت‌هایی برای نوجوانان در رسانه‌های اجتماعی است.