about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

انتشار شده در تاریخ

نگرانی نسبت به تأثیرات هوش مصنوعی

در نشست امنیتی سایبرسک مطرح شد اگر قوانین مدیریت مناسبی برای هوش مصنوعی تصویب نگردد، در کنار مزایای ارائه‌شده، تأثیرات منفی جهانی روئت خواهد شد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ آینده‌ی هوش مصنوعی یکی از اصلی‌ترین موضوعات موردبحث در سومین نشست سالانه‌ی امنیت سایبری سایبرسک (Cybersec Cybersecurity) بود که در شهر کراکوف لهستان برگزار شد و متخصصانی از لهستان، هلند، آلمان، انگلیس و چندین کشور دیگر در آن حضور داشتند. این افراد در نشست یاد شده، در حوزه‌ی اشتباهات، ظرفیت‌های هوش مصنوعی و نقش آن در شرکت‌ها به گفتگو پرداختند.
اکسل پتری (Axel Petri)، معاون ارشد مدیر شرکت دویچه تلکام (Deutsche Telekom) گفت:

آیا خیلی زود است که نسبت به هوش مصنوعی نگران شویم؟ قطعاً خیر. هم‌اکنون زمان آن رسیده است که ما در طول 10 تا 20 سال آینده به این سؤال پاسخ بدهیم.

امنیت سایبری که با هوش مصنوعی و یادگیری ماشینی پشتیبانی بشود، می‌تواند با کمک داده‌ها بینش بهتری پیدا کرده و با تهدیدات مقابله کند.
پتری افزود:

زمانی که از هوش مصنوعی بهره می‌برید، می‌توانید از نیروهای کاری خود به شکل بهتر و بهینه‌تری استفاده کنید. بسیار خوب است اگر بتوانیم یک تحلیلگر امنیتی جوان که به اندازه‌ی باهوش‌ترین فرد این زمینه حرفه‌ای است، داشته باشیم، در حالی که بسیار کم یاب هستند.

آندره زایبتویچ (Andrzej Zybertowicz)، محقق دانشگاه نیکولاس کوپرنیک (Nicolaus Copernicus University) و مشاور ارشد رییس‌جمهور لهستان، توضیح داد در حالی که می‌توان با استفاده از هوش مصنوعی امنیت سایبری را افزایش داد، تأثیرات فاجعه‌بار آن در مقیاس جهانی قابل‌رؤیت هستند.
زایبتویچ تأکید کرد زمان آن رسیده است نسبت به خطرات این فناوری گفتگو و قوانینی برای جلوگیری از آن تصویب بشود. دیگر حاضران در جلسه نیز موافقت خود را در این زمینه اعلام کردند.
نوئل شارکی (Noel Sharkey)، استاد هوش مصنوعی و روباتیک دانشگاه شفلید انگلیس و فردی که فرصت‌ها و تهدیدهای این حوزه باور دارد گفت:

مشکل این است که خطرات بسیار زیادی وجود دارد

شارکی برای بیان صحبت‌های خود مثالی را در زمینه‌ی بهداشت و درمان، محلی که پزشکان می‌توانند به کمک هوش مصنوعی روی بیماری‌ها تحقیق کنند، مطرح کرد. چنین قابلیتی بسیار خوب است؛ اما چه اتفاقی رخ می‌دهد اگر پزشکان بعد از مدتی به اندازه‌ی کافی طولانی، مورد سؤال قرار دادن سامانه را متوقف کنند؟ آیا آن‌ها باید به صورت خودکار با ماشین موافقت کنند؟ این رویداد چه پیامدهایی خواهد داشت و چه می‌شود اگر یک روز دستگاه تصمیمی اشتباه بگیرد؟
وی ادامه داد:

ما باید نسبت به نوع مدیریتی که در زمینه‌ی هوش مصنوعی جستجو می‌کنیم، نگران باشیم.

مطمئناً هوش‌های مصنوعی برنامه‌هایی که در زمینه‌هایی مانند مراقبت از کودکان، سالمندان و حمل‌ونقل تولید می‌شوند به یادگیری عمیق، یادگیری تقویتی (reinforcement learning) نیاز پیدا می‌شود. اثبات آینده1 (Future-proofing) هوش مصنوعی باید پیامدهای حقوق بشری را در نظر بگیرد.
الکساندرا پرزگالیسنکا اسکرکوسکا (Aleksandra Przegalinska-Skierkowska)، استاد دانشگاه کومینسکی و همکار محقق هوش جمعی ام‌آی‌تی گفت:

هوش مصنوعی همه‌ی حوزه‌های اطراف ما را مانند تمام صنعت‌ها، بهداشت و درمان و آموزش و پرورش دگرگون خواهد کرد. اگر ما خودروهای بی راننده یا دستیارهای مجازی می‌خواهیم، نیاز به دستورالعمل‌هایی نیز برای آن‌ها داریم.

اسکرکوسکا افزود:

ما در زمانی قرار داریم که مردم شروع به تفکر درباره‌ی مسائل مرتبط با اصول اخلاقی و پایبندی ماشین‌ها به آن‌ها کرده‌اند. از آنجایی که کسب‌وکارهای بیشتری به هوش مصنوعی روی خواهند آورد، ایجاد یک ساختار برای سامانه‌های هوش مصنوعی اخلاق مدار باید با به صورت یک تلاش جمعی صورت بگیرد.

پتری گفت:

به عنوان شرکتی که در حال فروش خدمات دیجیتالی است، ما باید یک مسئله‌ی خیلی مهم را در مرکز توجه قرار بدهیم: مشتری از هوش مصنوعی استفاده می‌کند. چیزی که ما می‌خواهیم اعتماد کاربران به همه‌ی انواع سامانه‌های فنی است. اگر ما اعتماد آن‌ها را نداشته باشیم، پس کاربری هم نخواهیم داشت.

زایبتویچ اشاره کرد بحث درباره‌ی قوانین نظارتی به زودی تبدیل به چیزی خواهد شد که عوامل بد آن را نقض خواهند کرد. تقریباً همه‌ی فناوری‌ها دارای دو جنبه بوده و ظرفیت تبدیل شدن به یک سلاح را دارند.
پتری افزود:

ما در اینجا درباره‌ی قوانین صحبت می‌کنیم؛ اما در حال مبارزه با بازیگران بدی هستیم که به مطابق با آن‌ها عمل نمی‌کنند. به علاوه افراد بد سریع‌تر از مردم خوب دست به نوآوری می‌زنند.

_____________________________________

1-اثبات آینده، روندی برای پیش‌بینی آینده و روش‌های توسعه است تا تأثیرات منفی حوادث آینده تا حد امکان کاهش پیدا کند.

تازه ترین ها
رهگیری
1404/08/29 - 15:19- جرم سایبری

رهگیری ۵۵ میلیون دلار رمزارز مرتبط با سایت‌های دزدی دیجیتال

یوروپل روز چهارشنبه اعلام کرد که تحقیق‌کنندگان در یک عملیات بین‌المللی توانستند از طریق پرداخت هزینه خدمات پلتفرم‌ها با رمزارز، اطلاعاتی درباره شبکه‌های مجرمانه پشت سایت‌های استریم غیرقانونی به دست آورند.

تایید
1404/08/29 - 15:12- جرم سایبری

تایید سرقت اطلاعات از شرکت لاجیتک

شرکت تولیدکننده فناوری لاجیتک روز جمعه اسنادی را نزد کمیسیون بورس و اوراق بهادار آمریکا ثبت کرد که به یک حادثه اخیر امنیت سایبری مربوط می‌شود؛ حادثه‌ای که در آن از یک آسیب‌پذیری روز صفر سوءاستفاده شده بود.

شهادت
1404/08/29 - 15:03- آمریکا

شهادت رئیس دفتر بودجه کنگره مبنی بر اخراج هکرها از سیستم‌های ایمیلی

رئیس دفتر بودجه کنگره روز سه‌شنبه صبح به قانون‌گذاران اعلام کرد که این نهاد پس از حمله سایبری که دو هفته پیش افشا شد، هکرها را از سیستم‌های خود خارج کرده است.