about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است. اما پرسش بنیادینی این است که وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه کسی پاسخ‌گو خواهد بود؟

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالی‌ترین و در عین حال تحول‌آفرین‌ترین رویدادهای فناورانه قرن بیست‌ویکم بوده است. این فناوری که زمانی صرفاً در تحلیل داده‌ها و پیش‌بینی الگوهای رفتاری کاربرد داشت، اکنون در قلب سامانه‌های دفاعی، اطلاعاتی و تهاجمی قدرت‌های بزرگ جهان جای گرفته است. از سامانه‌های شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشک‌های هدایت‌شونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است. اما پرسش بنیادینی همچنان در این میان مطرح است: وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه کسی پاسخ‌گو خواهد بود؟ آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته است؟

پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هسته‌ای و سامانه‌های بدون سرنشین، نه‌تنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید می‌کند. وونگ یادآور شد که تا امروز مهار جنگ هسته‌ای به واسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده است، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است. به گفته‌ی او، این فناوری‌ها می‌توانند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابل پیش‌بینی درگیری‌ها شوند. این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت»(Accountability Gap) بازتاب یافته؛ پدیده‌ای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحث‌برانگیزترین موضوعات عصر حاضر تبدیل شده است.

ابعاد استفاده از هوش مصنوعی در جنگ

هوش مصنوعی پدیده‌ای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمی‌گردد، اما تحولات اخیر در یادگیری ماشین و شبکه‌های عصبی عملاً مرز میان تصمیم‌سازی انسانی و ماشینی را کمرنگ کرده‌اند. امروز هوش مصنوعی از شبیه‌سازی‌های آموزشی و بازی‌های جنگی گرفته تا سامانه‌های تصمیم‌یار در هدف‌گیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده است.

نمونه بحث‌برانگیز اخیر، سامانه «Lavender» متعلق به رژیم اشغالگر قدس محسوب می‌شود که ارتش رژیم صهیونیستی از آن در نسل کشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده است. بر اساس گزارش‌های منتشر شده، این سامانه، مبتنی بر تحلیل داده‌های کلان، فهرستی از اهداف بالقوه تولید می‌کرد که سپس در عملیات هوایی مورد استفاده قرار می‌گرفت. به عقیده کارشناسان، این قبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت می‌کنند، زیرا تصمیم درباره‌ی مرگ و زندگی را از انسان به الگوریتم می‌سپارند.

از سوی دیگر، بسیاری از متخصصان بر این باورند که نباید تمام کاربردهای نظامی هوش مصنوعی را هم‌سنگ دانست. بخش بزرگی از این فناوری‌ها صرفاً برای آموزش، شبیه‌سازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده می‌شوند. بنابراین، نقطه‌ی بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیم‌گیری مرگبار دخالت مستقیم پیدا می‌کند.

شکاف مسئولیت: از افسانه «ربات قاتل» تا واقعیت تصمیم انسانی

بحث «شکاف مسئولیت» زمانی مطرح می‌شود که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ در چنین شرایطی باید به این پرسش بنیادین پاسخ داد که چه کسی باید مسئول اقدامات نظامی صورت گرفته باشد؟ رسانه‌ها این مسئله را با واژه‌هایی همچون «ربات‌های قاتل» دامن زده‌اند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطوره‌سازی شباهت دارد تا واقعیت فنی.

حقیقت این است که هیچ سامانه‌ی خودکاری تاکنون موضوع مسئولیت حقوقی نبوده است. مسئولیت همواره متوجه طراحان، مجریان و فرماندهان است و شامل ابزارها نمی‌شود. همان‌گونه که در پرونده‌ی رسوایی تخصیص اعتبار وام «Robodebt» در کشور استرالیا، نه سیستم محاسبه‌گر بدهی، بلکه دولت مسئول شناخته شد، در حوزه‌ی نظامی نیز پرسش از مسئولیت باید متوجه تصمیم‌گیرندگان انسانی باشد.

این امر به دلیل آن است که هوش مصنوعی خارج از سلسله‌مراتب فرماندهی نظامی وجود ندارد. هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیم‌های انسانی ساخته و به‌کار گرفته می‌شود. بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی است و مسئله‌ی واقعی، شفافیت در زنجیره‌ی تصمیم‌سازی و تنظیم‌گری انسان‌ها به شمار می‌رود.

زنجیره مسئولیت در چرخه عمر سیستم‌های نظامی هوش مصنوعی

هر سیستم پیچیده‌ای، از جمله سامانه‌های هوش مصنوعی نظامی، در چرخه‌ای متشکل از مراحل طراحی، توسعه، استقرار، بهره‌برداری و بازنشستگی عمل می‌کند. در هر یک از این مراحل، انسان‌ها تصمیم‌هایی می‌گیرند که بر قابلیت‌ها و محدودیت‌های سیستم تأثیر می‌گذارد. از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی است.

در واقع، خطاهای سیستم‌های هوشمند، بازتابی از تصمیم‌های انسانی در طراحی و آموزش آن‌هاست. اگر سامانه‌ای در جنگ اهداف غیرنظامی را اشتباه شناسایی می‌کند، مسئولیت به داده‌های آموزشی، معیارهای هدف‌گیری و سیاست‌های اجرایی بازمی‌گردد و هوش مصنوعی به‌عنوان موجودی مستقل در این فرایند مسئول نیست.

بنابراین، مقررات‌گذاری در حوزه‌ی تسلیحات مبتنی بر هوش مصنوعی در اصل باید بر انسان‌های فعال در زنجیره به‌کارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد. تدوین چارچوب‌های نظارتی بدون درک این چرخه، در بهترین حالت ناکارآمد و در بدترین حالت خطرناک است.

آیا هوش مصنوعی واقعاً ماهیت جنگ را تغییر می‌دهد؟

ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی تا حدودی اغراق‌آمیز است. جنگ در طول تاریخ، میدان اراده‌ها و قضاوت‌های انسانی بوده است؛ تصمیماتی که نه تنها بر اساس داده و منطق، بلکه بر مبنای ترس، امید، ایدئولوژی و قدرت اتخاذ می‌شوند. فناوری‌های نوین صرفاً ابزارهایی هستند که این تصمیمات را سریع‌تر، دقیق‌تر و گاه بی‌رحمانه‌تر می‌سازند و به هیچ وجه جایگزینی برای انسان نیستند. اگرچه هوش مصنوعی می‌تواند سرعت، دقت و حجم تحلیل‌های اطلاعاتی را چند برابر کند، اما هنوز در چارچوب اراده‌ی انسانی و منطق سیاست‌گذاری نظامی عمل می‌کند.

در این میان، مسئله‌ی بنیادین نه حذف انسان از چرخه‌ی تصمیم‌گیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایه‌های پیشینی‌تر یعنی طراحی، آموزش و تصمیم‌سازی الگوریتمی است. در جنگ‌های داده‌محور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتم‌های تشخیص هدف، تعریف آستانه‌های تصمیم، تنظیم داده‌های آموزشی و تعیین قواعد درگیری شکل می‌گیرند. در این ساختار جدید، فرمانده می‌تواند در ظاهر از صحنه‌ی تصمیم‌گیری کنار بایستد، در حالی که خطا درون کدها و مدل‌ها نهادینه شده است.

از این منظر، هوش مصنوعی نه ماهیت جنگ را به‌طور ماهوی دگرگون می‌کند و نه از الزام‌های اخلاقی می‌گریزد؛ بلکه لایه‌های مسئولیت را بازتوزیع می‌کند و میان خطوط کد، تصمیمات طراحی و فرمان‌های اجرایی پنهان می‌سازد. بدین ترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بی‌توجهی انسان به عمق اثرات تصمیمات فناورانه نهفته است.

بازتعریف مسئولیت در عصر جنگ هوشمند

هوش مصنوعی، علی‌رغم تمام پیچیدگی‌های فنی، فلسفی و اخلاقی، نه موجودی خودمختار است و نه بی‌وجدان؛ بلکه آینه‌ای از انتخاب‌ها، سوگیری‌ها و ارزش‌های انسانی است که در طراحی، آموزش و استفاده از آن نقش دارند. به بیان دیگر، آنچه از هوش مصنوعی در میدان نبرد می‌بینیم، در واقع بازتاب تفکر استراتژیک و نظام اخلاقی جوامعی است که آن را به کار می‌گیرند. بحران مسئولیت در کاربردهای نظامی فناوری مذکور از آن‌جا ناشی می‌شود که سازوکارهای سنتی پاسخ‌گویی که مبتنی بر فرماندهی متمرکز، تصمیم‌گیری انسانی و ساختارهای سلسله‌مراتبی بوده‌اند، دیگر با واقعیت زنجیره‌های تصمیم‌سازی شبکه‌ای و فناورانه سازگار نیستند. امروز، هر تصمیم نظامی نه فقط نتیجه دستور یک فرمانده، بلکه محصول هم‌زمان طراحی نرم‌افزار، پردازش داده، تنظیم الگوریتم و تفسیر خروجی مدل است.

از همین روی، چالش پیش‌رو، ایجاد نظامی از تنظیم‌گری هوشمند و میان‌رشته‌ای است که بتواند این زنجیره‌ی چندلایه‌ی مسئولیت را شفاف و قابل ردیابی کند. این نظام باید هم شفافیت فنی داشته باشد و هم پاسخ‌گویی حقوقی، تا از فاجعه‌ی «شکاف مسئولیت» در میدان نبرد جلوگیری نماید.

در نهایت، همان‌طور که بسیاری از تحلیل‌های جدید در حوزه امنیت بین‌الملل تأکید دارند، هوش مصنوعی جنگ را به‌صورت خودکار و مستقل از انسان اداره نمی‌کند؛ بلکه مسئولیت انسانی را در شبکه‌ای پیچیده‌تر از تعامل میان کد، داده، سیاست و تصمیم توزیع می‌کند. اگر جامعه جهانی نتواند این مسئولیت را به‌درستی بازتعریف و نهادینه کند، خطر واقعی نه از جانب ربات‌های قاتل، بلکه از سوی انسان‌هایی است که در پشت آن‌ها پنهان می‌شوند و از پاسخ‌گویی می‌گریزند.

منبع:

تازه ترین ها
پاکستان
1404/09/25 - 20:02- آسیا

پاکستان صدرنشین جستجوی محتوای نامناسب در جهان

مدیر کل اداره مخابرات پاکستان گفت که این کشور همچنان در صدر جستجوهای مربوط به محتوای نامناسب در سطح جهانی قرار دارد.

قوانین جدید مالزی درمورد پلتفرم‌های اصلی رسانه اجتماعی

مالزی قوانین جدیدی را در مورد پلتفرم‌های اصلی رسانه‌های اجتماعی برای تقویت ایمنی آنلاین، به ویژه برای کودکان، اجرا کرد.

برگزاری
1404/09/25 - 18:57- سایرفناوری ها

برگزاری سمینار آموزش فناوری‌های هوشمند هوآوی در تونس

سمینار هوآوی در مورد آموزش فناوری‌های هوشمند و خدمات پزشکی از راه دور در تونس برگزار شد.