ارائه نقشه راه اخلاقیات هوش مصنوعی در اروپا
به گزارش کارگروه فناوری اطلاعات سایبربان؛ بسیاری از پژوهشگران سراسر دنیا معتقدند که توسعه بدون نظارت هوش مصنوعی میتواند تهدیدی برای بقای بشریت باشد. از طرفی عملکرد نادرست و جانبدارانه این فناوری در بعضی موارد باعث شده است تا کشورهای مختلف شروع به تنظیم قوانینی در حوزه اخلاقیات این فناوری انجام دهند. برای نمونه کره جنوبی و استرالیا، تاکنون نقشه راههای خود را منتشر ساختهاند.
کمیسیون اروپا نیز به تازگی اولین اقدامات خود را به منظور توسعه نقشه راه اصول اخلاقی هوش مصنوعی انجام داده است.
با وجود این که هوش مصنوعی فرصتهای فراوانی را در همهی حوزههای اجتماعی و صنعتی ارائه میدهد، اتحادیه اروپا امیدوار است، به منظور پذیرش گسترش این فناوری، به سؤالات قانونی و اخلاقی پیرامون آن پاسخ دهد.
نقشه راه یاد شده به منظور دستیابی یک هوش مصنوعی قابلاعتماد دارای 7 بخش قابل تقسیم شده است. این چشمانداز بر پایه اقدامات گروه تخصصی سطح بالا هوش مصنوعی (AI HLEG) تنظیم شد. این کارگروه در ژوئن 2018، از 52 متخصص دانشگاهی، صنعتی، متخصص جامعه مدنی تشکیل شد.
نقشه راه یاد شده بخشی از راهبرد هوش مصنوعی کمیسیون اروپا بوده و به 3 بخش تقسیم میشود. این بخشها عبارتاند از:
• تشویق پذیرش عمومی و خصوصی هوش مصنوعی
• حصول اطمینان از این که کشورهای عضو اتحادیه اروپا برای تغییرات سیاسی و اقتصادی به وجود آماده به واسطه هوش مصنوعی آمادگی دارند.
• ایجاد یک چارچوب اخلاقی و قانونی مناسب که 7 مورد یاد شده در بالا را در برمیگیرد.
7 دستورالعمل یاد شده بخشی از فاز آزمایشی طرح کمیسیون اروپا است تا اطمینان حاصل شود که میتوان آن را در عمل اجرا کرد. همچنین این کمیسیون تخمین میزند سرمایهگذاریهای بخش خصوصی و دولتی اتحادیه اروپا در زمینه هوش مصنوعی در دههی آینده، به 22.5 میلیارد دلار در سال میرسد.
7 دستورالعمل یاد شده در زیر قابلمطالعه هستند:
1. سازمانهای انسانی و نظارتی: سامانههای هوش مصنوعی باید با حمایت از آژانسهای انسانی و حقوق اساسی، بدون کاهش، محدود کردن یا استقلال انسانها، به ایجاد یک جامعه بدون تبعیض کمک کنند.
2. ثبات و ایمنی: هوش مصنوعی قابلاطمینان به الگوریتمهایی ایمن، قابلاعتماد و قوی نیاز دارند تا با در طول چرخه حیات خود بتواند با خطاها و تناقضها مواجه شود.
3. حریم خصوصی و مدیریت اطلاعات: شهروندان باید بتوانند کنترل کاملی روی دادههای خود داشته باشند تا اطمینان حاصل شود از اطلاعات خودشان، به منظور آسیبرسانی به آنها بهره گرفته نمیشود.
4. شفافیت: باید از قابلی ردیابی بودن سامانههای هوش مصنوعی اطمینان حاصل شود.
5. تنوع عدم تبعیض و منصف بودن: سامانههای هوش مصنوعی باید همهی قابلیتهای انسانی، مهارتها و نیازهای آنها را در نظر بگیرد تا از در دسترس بودن آنها اطمینان حاصل شود.
6. رفاه اجتماعی و محیطی: سامانههای هوش مصنوعی باید بهمنظور تقویت تغییرات مثبت اجتماعی، پایداری و مسئولیتپذیری محیط زیستی مورد استفاده قرار گیرد.
7. مسئولیتپذیری: باید به منظور حصول اطمینان از مسئولیتپذیری هوش مصنوعی و نتایج اقدامات آنها، مکانیزمهای مختلفی به وجود آید.
راهبرد هوش مصنوعی کمیسیون اروپا در گامهای بعدی شامل راهاندازی یک نمونه اولیه بزرگتر در تابستان پیش رو خواهد بود. این کار با هدف تلاش برای دستیابی به یک توافق بینالمللی در حوزه هوش مصنوعی با محوریت انسانی صورت میگیرد. این کمیسیون قصد دارد بهواسطه سازمانهایی مانند G7، G20، همکاریهای خود را با کشورهایی مانند ژاپن، کانادا سنگاپور در این حوزه افزایش دهد.