about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

به گفته یک شرکت اسرائیلی، در حال حاضر فناوری هوش مصنوعی تشخیص چهره نقص دارد، اما روز به روز پیشرفت می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ به گفته شرکت اسرائیلی «AnyVision»، سازنده محصولات و الگوریتم‌های منحصربه‌فرد مورد استفاده برای کنترل ورودی‌ها در فرودگاه‌ها، بیمارستان‌ها و کازینوها و مرزهای ایالتی، فناوری هوش مصنوعی تشخیص چهره به شدت ناقص است، اما روز به روز پیشرفت می‌کند.

AnyVision، که در 45 کشور فعالیت دارد، اخیراً فناوری جمع‌آوری اطلاعات خود را در کنفرانس اروپایی « Computer Vision 2020»، که هفته گذشته به پایان رسید، به اشتراک گذاشت.

این شرکت کارگاهی برای تشخیص چهره منصفانه برگزار کرد تا احتمال کاهش میزان تعصب سیستم‌های هوش مصنوعی را بررسی کند. در میان 10 تیم برنده، تعصب بسیار کم و تقریباً قابل اغماض بود.

ادوارد وازکز (Eduard Vazquez)، محقق شرکت در گفتگو با اورشلیم پست اعلام کرد :

«در روزهای اولیه تشخیص چهره، شرکت‌ها از داده‌های بد استفاده می‌کردند. شما نمی‌توانید از داده‌های بد استفاده کنید و نتایج خوبی بگیرید. هیچگاه نباید از هوش مصنوعی برای تصمیم‌گیری مواردی نظیر دستگیر کردن فرد یا مشخص کردن جرم شخصی استفاده کرد.»

به گفته وازکز، چنین ابزارهایی تنها در جوامعی به درستی استفاده می‌شوند که یک سیستم حقوقی عملکردی و حقوق اساسی انسانی درست داشته باشند. همانطور که اشتباه است اگر بگوییم ماشین‌ها تعصب دارند، اشتباه است اگر گفته شود ماشین‌ها متعصب نیستند. به هر حال، سیستم‌های هوش مصنوعی نسبت به مردم تعصب کمتری دارند.

این محقق اسرائیلی گفت که فناوری تشخیص چهره هر روز پیشرفت می‌کند؛ اما این بدان معنا نیست که باید تصمیم‌گیری کامل برعهده این فناوری گذاشته شود.

در داستان‌های علمی تخیلی، مطالبی در مورد مردم وجود دارد که قادر به اثبات آنچه که ادعا می‌کنند نیستند. در دنیای واقعی اشکال دیگری نیز، فراتر از اسکن صورت، مانند تماس با دفتر و درخواست ورود به خانه، برای اثبات هویت فرد وجود دارد.

وازکز خاطرنشان کرد :

«اگر یک سیستم هوش مصنوعی مغرضانه عمل کند، سیستم بدی است. شما نمی‌توانید سیستمی را که به خوبی آزمایش نشده، در دنیای واقعی استفاده کنید. اگر خودتان مغرض باشید، فارغ از فناوری كه استفاده می‌كنید، سیستم ضعیفی نیز خواهید داشت.»

منبع:

تازه ترین ها
حمله
1404/09/27 - 13:01- هوش مصنوعي

حمله آمازون به قلمرو ChatGPT؛ دستیار هوشمند الکسا به وب آمد

آمازون با راه‌اندازی نسخه تحت وب دستیار صوتی الکسا، رسماً وارد رقابت مستقیم با چت‌بات‌های محبوبی مثل ChatGPT و Gemini شد تا سهم خود را از بازار هوش مصنوعی پس بگیرد.

سقوط شدید درآمد یوتیوبرهای ایرانی

سقوط شدید درآمد یوتیوبرهای ایرانی در نتیجهٔ به‌روز‌رسانی جدید یوتیوب خبر ساز شد.

۵
1404/09/27 - 12:50- هوش مصنوعي

۵ مرکز تخصصی هوش مصنوعی در دانشگاه‌ها راه اندازی می‌شود

مدیرعامل خانه هوش ایران گفت: برنامه‌ریزی کرده‌ایم تا سال آینده ۵ مرکز تخصصی هوش مصنوعی در دانشگاه‌های مختلف کشور راه‌اندازی شود