about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

انتشار شده در تاریخ

بررسی اخلاقیات هوش مصنوعی در دره سیلیکون

هیئت نوآوری دفاعی آمریکا، به منظور بررسی مسائل اخلاقی هوش مصنوعی در کاربردهای نظامی، نشستی مشترک را با مقامات دره سیلیکون برگزار کرد.

به گزارش کارگروه بین‌الملل سایبربان؛ هیئت نوآوری دفاعی آمریکا (Defense Innovation Board) در سالن دانشگاه استنفورد، جلسه‌ای را پیرامون درگیری فکری پنتاگون درباره‌ی اخلاقیات هوش مصنوعی با فعالان دره سیلیکون برگزار کرد. این هیئت، در نشستی 2 ساعته، پیشنهاد مدرن‌سازی فناوری را به وزیر دفاع داد و نظرات خودش را درباره کاربرد مغز روبات در جنگ مدرن اعلام کرد.

چارلز آلن (Charles A. Allen)، معاون کل امور بین‌الملل در وزارت دفاع در این نشست گفت:

همچنان که پنتاگون به استفاده از هوش مصنوعی در برنامه‌های کاربردی نظامی و گاهی بخش فناوری تهاجمی ادامه می‌دهد، بحث قانون بشردوستانه بین‎المللی مطرح می‌شود.

آلن با اشاره به قوانین وضع شده از سوی اَش کارتر (Ash Carter)، معاون وقت وزارت دفاع در سال 2012 درمورد نحوه عملکرد سازمان در کسب سلاح‌های مستقل اعلام کرد:

ایالات متحده، سابقه طولانی در زمینه قوانین جنگی دارد. قوانین وضع شده، باید با قوانین جنگی تطبیق داشته باشند، حتی زمانی که قوانین خاصی، برای توصیف نوع سلاح مورد استفاده ذکر نشده است.

وی 3 راه را برای استفاده اخلاقی از هوش مصنوعی ازسوی وزارت دفاع عنوان کرد. اولین مورد، کاربرد قانون بشردوستانه بین‎المللی برای هر عملی، مانند بهره برداری از قوانین، به منظور اجرای حملات به کمک هوش مصنوعی است که به‌وسیله آن حمایت شود. مورد دوم، تأکید روی اصول قوانین جنگی مانند: الزام، تمایز و تناسب نظامی است.

معاون کل امور بین‌الملل در وزارت دفاع اظهار داشت:

اگر استفاده از فناوری باعث پیشرفت ارزش‌ها شود، کاربرد آن اخلاقی‌تر خواهد شد.

این بحثی است که ایالات متحده در ژنو در گروه کارشناسان دولتی فعال روی کنوانسیون سلاح‌های قراردادی مطرح کرد. مذاکرات برای تدوین استانداردهای جدید بین‌المللی در همه کشورها در مورد چگونگی استفاده از سیستم‌های مستقل در جنگ درحال اجرا است؛ اما هنوز به توافق نرسیده‌اند.

سومین راه، استفاده از فناوری برای بهبود حفاظت غیرنظامی است. آلن پس از مقایسه پتانسیل بقای هوش مصنوعی در میدان نبرد و استفاده از آن در ماشین‌های بدون راننده اعلام کرد که استفاده از این فناوری در جنگ باعث نجات جان‌ها می‌شود. سپس، درمورد هدف‌گیری دقیق‌تر با آسیب کمتر روی غیرنظامیان از سوی سیستم‌های سلاحی با شناسایی خودکار هدف سخن گفت.

معاون کل امور بین‌الملل وزارت دفاع ضمن اشاره ویژه به پروژه میون (Maven)، خاطرنشان کرد:

به کمک هوش مصنوعی برای شناسایی اشیا به‌صورت خودکار، تحلیلگران می‌توانند با داده‌های بیشتری جستجو را انجام داده، روی موارد سطح بالا تمرکز کنند.

پروژه میون –که به‌وسیله گوگل به صورت نرم‌افزار منبع باز توسعه یافت– به عنوان راهی برای پردازش فیلم‌های هواپیمای بدون سرنشین نظامی طراحی شده بود. پس از واکنش شدید کارمندان گوگل، این شرکت، از تمدید قرارداد در ماه مارس امسال خودداری کرد و اکنون این پروژه، به‌وسیله صنایع «Anduril» اداره می‌شود.

آلن از پروژه میون به عنوان نمونه هوش مصنوعی در همگرایی منافع نظامی و بشردوستانه، راهی برای افزایش دقت در کاربرد نیروها و استفاده از دیگر موارد در موقعیت‎های پرخطر نام برد. همچنین وی ادعا کرد علاوه بر استفاده صریح نظامی، این پروژه به عنوان مرکز مشترک هوش مصنوعی در تطبیق میون به یک ابتکار بشردوستانه و کمک به پاسخ دهندگان در شناسایی اهداف در آتش‌سوزی و طوفان محسوب می‌شود.

مارتا کاسمینا (Marta Kosmyna)، سازمان‌دهنده بخش کمپین دره سیلیکون برای توقف روبات‌های کشنده گفت:

قوانین بین‌الملل، به مسئولیت فردی نیاز دارند؛ اما با نوع جدید سلاح‌ها، وظایف افراد اعم از برنامه‌ریز، دستگاه، یا فرمانده مشخص نیست. ما اغلب می‌شنویم که سلاح های مستقل، دقیق‌تر و سلاح‌های کمتری از رده خارج خواهند شد. ما معتقدیم که این موارد با سیستم‌های نیمه مستقل به‌دست می‌آیند.

بوُ راجرز (Bow Rodgers)، مدیرعامل شرکت شتاب دهنده فناوری وِت (Vet-Tech) درمورد عدم وجود شلیک دوستانه و سختی تمایز میان اهداف جنگی توضیح داد و گفت که آرزو دارد هوش مصنوعی در مأموریت‌های دشوار نظامی به‌کار رود.

سرعت هوش مصنوعی، یکی از دلایل اصلی ارتش برای خرید سلاح‌های مستقل است. همچنین  خرید این سلاح‌ها از سوی دیگر کشورها نگرانی ارتش محسوب می‌شود؛ زیرا از محدودیت‌های اخلاقی مشابه آمریکا بهره نمی‌برد. کارشناس مذکور ادعا کرد با وجود تمایل اندک آمریکا به استفاده از سلاح‌های فوق، مردم این کشور هنوز می‌خواهند ایالات متحده همانند دیگر کشورها، سلاح‌های هوش مصنوعی را توسعه دهد.

لوسی ساچمن (Lucy Suchman)، استاد علوم و فناوری انسان‌شناسی در دانشگاه «Lancaster» معتقد است:

ما در دوره جنگ نامنظم هستیم. در این دوره، سؤالاتی از این قبیل مطرح می‌شوند: چه کسی شروع کننده جنگ بود؟ چه کسی باعث ایجاد تهدید جدی شد؟ تمایز میان سلاح دارنده هوش مصنوعی و دقت بیشتر آن در شلیک گلوله به یک انسان و شناسایی دقیق وی به کمک هوش مصنوعی برای شلیک، یک هدف اصلی است.

با وجود دهه‌ها تجربه در مورد دقت سلاح‌های نظامی، هنوز هم این سؤال مطرح می‌شود که باید به چه فردی شلیک شود. این مشکل در شناسایی به کمک هوش مصنوعی در بخش غیرنظامی وجود ندارد.

آماندا آسکِل (Amanda Askell)، از متخصصان شرکت اپن ای‌آی (Open AI) اعلام کرد:

مشکل اصلی اخلاق در هوش مصنوعی، اطمینان از حفظ اصول در موارد خاص، با سیستم‌های خاص و در محیط‌های خاص است. به عنوان مثال، یک سامانه ناوبری ویژه، برای حمل وسایل به خارج، راه‌اندازی شده است. قطعاً استفاده از این دستگاه خطرناک است و اگر بررسی نادرستی داشته باشید، یک جنگ غیرعمد با یک سیستم ناشناخته ایجاد کرده‌اید.

آسکِل پرسید:

به جای تکیه بر بررسی‌های ناقص، سیاستمداران باید با همکاری مردم، به منظور درک درست سیستم‌ها و نحوه شکست آن‌ها، فناوری ایجاد کنند.

میرا لِین (Mira Lane)، رئیس اخلاق و جامعه در مایکروسافت پس از مشخص کردن محدودیت‌های برنامه‌نویسان در پیش‌بینی کدهای ایجادشده و راه‌های ضروری در زمان جنگ برای طراحی سیستم‌های سلاحی مستقل اظهار داشت:

این فقط معرفی فناوری جدید است.

 وی بر اهمیت توسعه حلقه‌های تکرار تنگاتنگ و سیستم‌های بازخورد در هوش مصنوعی برای مشخص شدن هرچه سریع‌تر نواقص و سازگاری بیشتر تأکید کرد.

لِین گفت:

با هر پیشرفت جدید فناوری، ظهور حوزه‌های جدید جهل ناگزیر و قابل پیش‌بینی است.

تازه ترین ها
نقض
1404/04/12 - 12:56- جرم سایبری

نقض سایبری شرکت مکس فایننشال هند

شرکت مکس فایننشال هند از تهدید سایبری در واحد بیمه عمر اکسیس مکس خود خبر داد.

سرقت
1404/04/12 - 12:34- جرم سایبری

سرقت اطلاعات پرداخت خریداران توسط هکرهای مرتبط با چین

محققان یک شبکه گسترده از وبسایت‌های جعلی فروشگاهی را کشف کرده‌اند که با تقلید از برندهای بزرگ جهانی، اطلاعات پرداخت کاربران اینترنتی را سرقت می‌کنند.

حمله
1404/04/12 - 12:23- جرم سایبری

حمله باج‌افزاری به یک خیریه آلمانی

سازمان خیریه آلمانی "دویچه ولت‌هانگرهیلفه" که هدف آن توسعه منابع غذایی پایدار در برخی از فقیرترین کشورهای جهان است، مورد حمله یک گروه باج‌افزاری قرار گرفته است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.