about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

ادعای
1403/12/28 - 16:00- جنگ سایبری

ادعای حمله سایبری به ۱۱۶کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران

🔹از بامداد امروز خبر حمله سایبری به ۱۱۶ کشتی متعلق به وزارت نفت و شرکت کشتیرانی ملی ایران توسط گروه لب دوختگان در برخی از خبرگزاری‌های معاند منتشر شد

انتشار شده در تاریخ

نگرانی نسبت به تأثیرات هوش مصنوعی

در نشست امنیتی سایبرسک مطرح شد اگر قوانین مدیریت مناسبی برای هوش مصنوعی تصویب نگردد، در کنار مزایای ارائه‌شده، تأثیرات منفی جهانی روئت خواهد شد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ آینده‌ی هوش مصنوعی یکی از اصلی‌ترین موضوعات موردبحث در سومین نشست سالانه‌ی امنیت سایبری سایبرسک (Cybersec Cybersecurity) بود که در شهر کراکوف لهستان برگزار شد و متخصصانی از لهستان، هلند، آلمان، انگلیس و چندین کشور دیگر در آن حضور داشتند. این افراد در نشست یاد شده، در حوزه‌ی اشتباهات، ظرفیت‌های هوش مصنوعی و نقش آن در شرکت‌ها به گفتگو پرداختند.
اکسل پتری (Axel Petri)، معاون ارشد مدیر شرکت دویچه تلکام (Deutsche Telekom) گفت:

آیا خیلی زود است که نسبت به هوش مصنوعی نگران شویم؟ قطعاً خیر. هم‌اکنون زمان آن رسیده است که ما در طول 10 تا 20 سال آینده به این سؤال پاسخ بدهیم.

امنیت سایبری که با هوش مصنوعی و یادگیری ماشینی پشتیبانی بشود، می‌تواند با کمک داده‌ها بینش بهتری پیدا کرده و با تهدیدات مقابله کند.
پتری افزود:

زمانی که از هوش مصنوعی بهره می‌برید، می‌توانید از نیروهای کاری خود به شکل بهتر و بهینه‌تری استفاده کنید. بسیار خوب است اگر بتوانیم یک تحلیلگر امنیتی جوان که به اندازه‌ی باهوش‌ترین فرد این زمینه حرفه‌ای است، داشته باشیم، در حالی که بسیار کم یاب هستند.

آندره زایبتویچ (Andrzej Zybertowicz)، محقق دانشگاه نیکولاس کوپرنیک (Nicolaus Copernicus University) و مشاور ارشد رییس‌جمهور لهستان، توضیح داد در حالی که می‌توان با استفاده از هوش مصنوعی امنیت سایبری را افزایش داد، تأثیرات فاجعه‌بار آن در مقیاس جهانی قابل‌رؤیت هستند.
زایبتویچ تأکید کرد زمان آن رسیده است نسبت به خطرات این فناوری گفتگو و قوانینی برای جلوگیری از آن تصویب بشود. دیگر حاضران در جلسه نیز موافقت خود را در این زمینه اعلام کردند.
نوئل شارکی (Noel Sharkey)، استاد هوش مصنوعی و روباتیک دانشگاه شفلید انگلیس و فردی که فرصت‌ها و تهدیدهای این حوزه باور دارد گفت:

مشکل این است که خطرات بسیار زیادی وجود دارد

شارکی برای بیان صحبت‌های خود مثالی را در زمینه‌ی بهداشت و درمان، محلی که پزشکان می‌توانند به کمک هوش مصنوعی روی بیماری‌ها تحقیق کنند، مطرح کرد. چنین قابلیتی بسیار خوب است؛ اما چه اتفاقی رخ می‌دهد اگر پزشکان بعد از مدتی به اندازه‌ی کافی طولانی، مورد سؤال قرار دادن سامانه را متوقف کنند؟ آیا آن‌ها باید به صورت خودکار با ماشین موافقت کنند؟ این رویداد چه پیامدهایی خواهد داشت و چه می‌شود اگر یک روز دستگاه تصمیمی اشتباه بگیرد؟
وی ادامه داد:

ما باید نسبت به نوع مدیریتی که در زمینه‌ی هوش مصنوعی جستجو می‌کنیم، نگران باشیم.

مطمئناً هوش‌های مصنوعی برنامه‌هایی که در زمینه‌هایی مانند مراقبت از کودکان، سالمندان و حمل‌ونقل تولید می‌شوند به یادگیری عمیق، یادگیری تقویتی (reinforcement learning) نیاز پیدا می‌شود. اثبات آینده1 (Future-proofing) هوش مصنوعی باید پیامدهای حقوق بشری را در نظر بگیرد.
الکساندرا پرزگالیسنکا اسکرکوسکا (Aleksandra Przegalinska-Skierkowska)، استاد دانشگاه کومینسکی و همکار محقق هوش جمعی ام‌آی‌تی گفت:

هوش مصنوعی همه‌ی حوزه‌های اطراف ما را مانند تمام صنعت‌ها، بهداشت و درمان و آموزش و پرورش دگرگون خواهد کرد. اگر ما خودروهای بی راننده یا دستیارهای مجازی می‌خواهیم، نیاز به دستورالعمل‌هایی نیز برای آن‌ها داریم.

اسکرکوسکا افزود:

ما در زمانی قرار داریم که مردم شروع به تفکر درباره‌ی مسائل مرتبط با اصول اخلاقی و پایبندی ماشین‌ها به آن‌ها کرده‌اند. از آنجایی که کسب‌وکارهای بیشتری به هوش مصنوعی روی خواهند آورد، ایجاد یک ساختار برای سامانه‌های هوش مصنوعی اخلاق مدار باید با به صورت یک تلاش جمعی صورت بگیرد.

پتری گفت:

به عنوان شرکتی که در حال فروش خدمات دیجیتالی است، ما باید یک مسئله‌ی خیلی مهم را در مرکز توجه قرار بدهیم: مشتری از هوش مصنوعی استفاده می‌کند. چیزی که ما می‌خواهیم اعتماد کاربران به همه‌ی انواع سامانه‌های فنی است. اگر ما اعتماد آن‌ها را نداشته باشیم، پس کاربری هم نخواهیم داشت.

زایبتویچ اشاره کرد بحث درباره‌ی قوانین نظارتی به زودی تبدیل به چیزی خواهد شد که عوامل بد آن را نقض خواهند کرد. تقریباً همه‌ی فناوری‌ها دارای دو جنبه بوده و ظرفیت تبدیل شدن به یک سلاح را دارند.
پتری افزود:

ما در اینجا درباره‌ی قوانین صحبت می‌کنیم؛ اما در حال مبارزه با بازیگران بدی هستیم که به مطابق با آن‌ها عمل نمی‌کنند. به علاوه افراد بد سریع‌تر از مردم خوب دست به نوآوری می‌زنند.

_____________________________________

1-اثبات آینده، روندی برای پیش‌بینی آینده و روش‌های توسعه است تا تأثیرات منفی حوادث آینده تا حد امکان کاهش پیدا کند.

تازه ترین ها
توسعه
1404/02/21 - 17:39- هوش مصنوعي

توسعه ربات‌های آمازون در محیط انبار

شرکت آمازون، اتوماسیون انبار را با ربات‌های مجهز به هوش مصنوعی گسترش می‌دهد.

جاه‌طلبی‌های
1404/02/21 - 16:57- سایرفناوری ها

جاه‌طلبی‌های چین در جنگ با مایکروویوهای پرتوان

جمهوری خلق چین در سال گذشته پیشرفت‌های چشمگیری در زمینه فناوری سلاح‌های مایکروویو پرتوان داشته است.

افزایش
1404/02/21 - 14:31- آسیا

افزایش حملات وب در منطقه آسیا و اقیانوسیه و ژاپن

به گفته محققان، حملات وب از سال ۲۰۲۳ تا ۲۰۲۴ در منطقه آسیا و اقیانوسیه-ژاپن افزایش ۷۳ درصدی داشته است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.