about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

توسعه دهندگان هوش مصنوعی باید از ایجاد فرنکشتاین‌های فناوری خودداری کنند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ کارشناسان معتقدند که شاید ده‌ها نمونه از تعصبات انسانی در الگوریتم‌های هوش مصنوعی (AI) وجود داشته باشند، اما کار چندانی از سوی شرکت‌ها انجام نشده است تا ملاحظات اخلاقی را در تصمیم‌گیری‌های هوش مصنوعی لحاظ کنند. در عوض، بیشتر شرکت‌ها تمایل به انجام اصلاحات بعد از واقعیت، البته با عذرخواهی زیاد، دارند. با این حال، یک کنفرانس معتبر در تلاش است تا قوانین بازی را تغییر دهد. در حالت طبیعی، در کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS) که اوایل ماه برگزار شد، یک هیئت اخلاقی مقالات و اینکه آیا فناوری پیشنهادی عوارض جانبی بالقوه‌ای دارد یا تحقیق می‌تواند استفاده‌های ناخواسته داشته باشد، را ارزیابی کرد. هدف هیئت مدیره، پیشنهاد به شرکت کنندگان برای تحقیق و توسعه فناوری بود كه تبعات بزرگ‌تری را برای جامعه به همراه دارد. امسال، از 9،467 مورد ارسال شده، 290 مورد پذیرفته و چهار نفر رد شدند.

اگرچه بسیاری کارشناسان معتقدند که غربالگری مقالات در مورد جنبه‌های اخلاقی باعث می‌شود تا تحقیقات از بین برود، اما آنچه باید مورد توجه قرار گیرد این است که جهان به طور فزاینده‌ای با موارد سوءاستفاده از فناوری مبارزه می‌کند. به عنوان مثال، فناوری‌های جعلی عمیق به‌وسیله اشرار برای انتشار اخبار جعلی استفاده می‌شوند. اگرچه بسیاری شرکت‌ها مانند آی‌بی‌ام (IBM) پیشنهادات شناسایی چهره خود را برای پلیس پس گرفته‌اند، اما بسیاری از ادارات پلیس و شهرستان با وجود گزارش سوگیری و تشخیص نادرست، هنوز از چنین فناوری استفاده می‌کنند. ملاحظات اخلاقی محققان را مجبور می‌کند جنبه‌های حریم خصوصی و استفاده نادرست از فناوری را در نظر بگیرند. با توجه به اینکه هوش مصنوعی می‌تواند عمیقاً در زندگی روزمره نفوذ کند، توسعه دهندگان باید از ایجاد فن‌آوری «Frankensteins» اجتناب کنند و کنفرانس سیستم‌های پردازش اطلاعات عصبی راه را نشان می‌دهد.

منبع:

تازه ترین ها
حذف
1404/10/01 - 13:27- هوش مصنوعي

حذف مشاغل توسط هوش مصنوعی در مقیاس انقلاب صنعتی

رئیس بانک انگلستان هشدار داد که هوش مصنوعی می‌تواند مشاغل را در مقیاس انقلاب صنعتی از بین ببرد.

مشارکت
1404/10/01 - 13:19- هوش مصنوعي

مشارکت گوگل با دانشگاه تل‌آویو در حوزه هوش مصنوعی

دانشگاه تل‌آویو و شرکت گوگل در اراضی اشغالی یک همکاری تحقیقاتی یک میلیون دلاری در حوزه هوش مصنوعی آغاز کردند.

جریمه
1404/10/01 - 12:21- اروپا

جریمه اپل توسط سازمان ضد انحصار ایتالیا

سازمان ضد انحصار ایتالیا، اپل را به دلیل سوءاستفاده از موقعیت برتر خود در اپ‌استور جریمه کرد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.