about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

انتشار شده در تاریخ

نگرانی نسبت به تأثیرات هوش مصنوعی

در نشست امنیتی سایبرسک مطرح شد اگر قوانین مدیریت مناسبی برای هوش مصنوعی تصویب نگردد، در کنار مزایای ارائه‌شده، تأثیرات منفی جهانی روئت خواهد شد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ آینده‌ی هوش مصنوعی یکی از اصلی‌ترین موضوعات موردبحث در سومین نشست سالانه‌ی امنیت سایبری سایبرسک (Cybersec Cybersecurity) بود که در شهر کراکوف لهستان برگزار شد و متخصصانی از لهستان، هلند، آلمان، انگلیس و چندین کشور دیگر در آن حضور داشتند. این افراد در نشست یاد شده، در حوزه‌ی اشتباهات، ظرفیت‌های هوش مصنوعی و نقش آن در شرکت‌ها به گفتگو پرداختند.
اکسل پتری (Axel Petri)، معاون ارشد مدیر شرکت دویچه تلکام (Deutsche Telekom) گفت:

آیا خیلی زود است که نسبت به هوش مصنوعی نگران شویم؟ قطعاً خیر. هم‌اکنون زمان آن رسیده است که ما در طول 10 تا 20 سال آینده به این سؤال پاسخ بدهیم.

امنیت سایبری که با هوش مصنوعی و یادگیری ماشینی پشتیبانی بشود، می‌تواند با کمک داده‌ها بینش بهتری پیدا کرده و با تهدیدات مقابله کند.
پتری افزود:

زمانی که از هوش مصنوعی بهره می‌برید، می‌توانید از نیروهای کاری خود به شکل بهتر و بهینه‌تری استفاده کنید. بسیار خوب است اگر بتوانیم یک تحلیلگر امنیتی جوان که به اندازه‌ی باهوش‌ترین فرد این زمینه حرفه‌ای است، داشته باشیم، در حالی که بسیار کم یاب هستند.

آندره زایبتویچ (Andrzej Zybertowicz)، محقق دانشگاه نیکولاس کوپرنیک (Nicolaus Copernicus University) و مشاور ارشد رییس‌جمهور لهستان، توضیح داد در حالی که می‌توان با استفاده از هوش مصنوعی امنیت سایبری را افزایش داد، تأثیرات فاجعه‌بار آن در مقیاس جهانی قابل‌رؤیت هستند.
زایبتویچ تأکید کرد زمان آن رسیده است نسبت به خطرات این فناوری گفتگو و قوانینی برای جلوگیری از آن تصویب بشود. دیگر حاضران در جلسه نیز موافقت خود را در این زمینه اعلام کردند.
نوئل شارکی (Noel Sharkey)، استاد هوش مصنوعی و روباتیک دانشگاه شفلید انگلیس و فردی که فرصت‌ها و تهدیدهای این حوزه باور دارد گفت:

مشکل این است که خطرات بسیار زیادی وجود دارد

شارکی برای بیان صحبت‌های خود مثالی را در زمینه‌ی بهداشت و درمان، محلی که پزشکان می‌توانند به کمک هوش مصنوعی روی بیماری‌ها تحقیق کنند، مطرح کرد. چنین قابلیتی بسیار خوب است؛ اما چه اتفاقی رخ می‌دهد اگر پزشکان بعد از مدتی به اندازه‌ی کافی طولانی، مورد سؤال قرار دادن سامانه را متوقف کنند؟ آیا آن‌ها باید به صورت خودکار با ماشین موافقت کنند؟ این رویداد چه پیامدهایی خواهد داشت و چه می‌شود اگر یک روز دستگاه تصمیمی اشتباه بگیرد؟
وی ادامه داد:

ما باید نسبت به نوع مدیریتی که در زمینه‌ی هوش مصنوعی جستجو می‌کنیم، نگران باشیم.

مطمئناً هوش‌های مصنوعی برنامه‌هایی که در زمینه‌هایی مانند مراقبت از کودکان، سالمندان و حمل‌ونقل تولید می‌شوند به یادگیری عمیق، یادگیری تقویتی (reinforcement learning) نیاز پیدا می‌شود. اثبات آینده1 (Future-proofing) هوش مصنوعی باید پیامدهای حقوق بشری را در نظر بگیرد.
الکساندرا پرزگالیسنکا اسکرکوسکا (Aleksandra Przegalinska-Skierkowska)، استاد دانشگاه کومینسکی و همکار محقق هوش جمعی ام‌آی‌تی گفت:

هوش مصنوعی همه‌ی حوزه‌های اطراف ما را مانند تمام صنعت‌ها، بهداشت و درمان و آموزش و پرورش دگرگون خواهد کرد. اگر ما خودروهای بی راننده یا دستیارهای مجازی می‌خواهیم، نیاز به دستورالعمل‌هایی نیز برای آن‌ها داریم.

اسکرکوسکا افزود:

ما در زمانی قرار داریم که مردم شروع به تفکر درباره‌ی مسائل مرتبط با اصول اخلاقی و پایبندی ماشین‌ها به آن‌ها کرده‌اند. از آنجایی که کسب‌وکارهای بیشتری به هوش مصنوعی روی خواهند آورد، ایجاد یک ساختار برای سامانه‌های هوش مصنوعی اخلاق مدار باید با به صورت یک تلاش جمعی صورت بگیرد.

پتری گفت:

به عنوان شرکتی که در حال فروش خدمات دیجیتالی است، ما باید یک مسئله‌ی خیلی مهم را در مرکز توجه قرار بدهیم: مشتری از هوش مصنوعی استفاده می‌کند. چیزی که ما می‌خواهیم اعتماد کاربران به همه‌ی انواع سامانه‌های فنی است. اگر ما اعتماد آن‌ها را نداشته باشیم، پس کاربری هم نخواهیم داشت.

زایبتویچ اشاره کرد بحث درباره‌ی قوانین نظارتی به زودی تبدیل به چیزی خواهد شد که عوامل بد آن را نقض خواهند کرد. تقریباً همه‌ی فناوری‌ها دارای دو جنبه بوده و ظرفیت تبدیل شدن به یک سلاح را دارند.
پتری افزود:

ما در اینجا درباره‌ی قوانین صحبت می‌کنیم؛ اما در حال مبارزه با بازیگران بدی هستیم که به مطابق با آن‌ها عمل نمی‌کنند. به علاوه افراد بد سریع‌تر از مردم خوب دست به نوآوری می‌زنند.

_____________________________________

1-اثبات آینده، روندی برای پیش‌بینی آینده و روش‌های توسعه است تا تأثیرات منفی حوادث آینده تا حد امکان کاهش پیدا کند.

تازه ترین ها
محققان
1404/07/13 - 19:52- هوش مصنوعي

محققان ماوس گیمینگ را با هوش مصنوعی به ابزار شنود صدای کاربران تبدیل کردند

محققان امنیتی نشان دادند که می‌توان با استفاده از هوش مصنوعی، سنسور حرکت یک ماوس گیمینگ پیشرفته را به یک میکروفون مخفی تبدیل کرد و مکالمات کاربر را از طریق لرزش‌های میز کار شنود کرد.

عجیب
1404/07/13 - 19:49- هوش مصنوعي

عجیب ترین کاربردهای هوش مصنوعی که فکرش را هم نمی‌کنید!

هوش مصنوعی فقط برای کارهای جدی نیست. از همسریابی برای گاوها تا پیشگویی آینده و ساخت خانه جن‌زده، با کاربردهای عجیب هوش مصنوعی آشنا شوید که شما را شگفت‌زده می‌کند.

هوش
1404/07/13 - 19:45- هوش مصنوعي

هوش مصنوعی، کلید پایداری و تحول در مدیریت شهری

رئیس سازمان نظام صنفی رایانه‌ای گفت: شیوه‌های سنتی دیگر پاسخگوی نیاز شهرهای در حال رشد نیستند و تنها با تکیه بر ابزارهایی مانند هوش مصنوعی می‌توان به شهری پایدار، هوشمند و کارآمد دست یافت.