تصویب اصول اخلاقی هوش مصنوعی در استرالیا
به گزارش کارگروه فناوری اطلاعات سایبربان؛ خوب یا بد بودن یک فناوری، به نحوه توسعه و استفاده از آن بستگی دارد. امروزه صحبت در رابطه با مسائل بسیاری مانند دینامیت، مواد شیمیایی و هوش مصنوعی وجود دارد که از این میان، هوش مصنوعی، بیشترین حجم نگرانیهای یادشده را به خود اختصاص داده است.
زمانی که هوش مصنوعی، به درستی توسعه پیدا کرده، مورد استفاده قرار میگیرد، از ظرفیت بالایی برای ایجاد تحول در شیوهی زندگی، کار، مسافرت و ارتباطات برخوردار است.
برای نمونه، هماکنون ابزارهای پزشکی متکی به هوش مصنوعی به وجود آمدهاند که روند تشخیص بیماری و مراقبت از افراد را بهبود بخشیدهاند. دلایل قانعکنندهای وجود دارند که وسایل نقلیه بی راننده، ایمنی را افزایش داده، هزینههای جادهای را کاهش میدهند. یادگیری ماشینی و خودمختارسازی نیز در جریانهای کاری وارد شده، به انسانها اجازه میدهند به صورت هوشمندانهتری کار کنند.
با توجه به مزایای یادشده، پذیرش و بهکارگیری هوش مصنوعی در کاربردهای فردی و دولتی و سازمانها و مؤسسات، به صورت روزافزون درحال افزایش است؛ اما باید توجه داشت که در کنار گنجایشهای بالقوهی وسیعی که در زمینه بهبود کیفیت زندگی پدیدار میشوند، بهرهمندی نادرست از آن، حقوق و آزادیهای بشری را با خطر مواجه میکند. به همین دلیل، مقامات استرالیا اعلام کردند که باید نظارت مناسب، راهنمایی و درک درست از شیوه توسعه و بهکارگیری آن، اولویتبندی شود.
بر پایهی دیدگاه افراد بسیاری، از کنترل خارج شدن هوش مصنوعی، سناریوهایی را مشابه با فیلمهای ترمیناتور و «Ex Machina» به وجود میآورد؛ اما مسائل بسیار سادهتری وجود دارند که اینک باید به آنها توجه نشان داد. این موارد عبارتاند از:
- شیوهی استفاده از دادهها برای توسعه هوش مصنوعی
- عمل کردن هوش مصنوعی به صورت منصفانه و بدون تبعیض
- در چه موقعیتهایی ما باید به تصمیمگیریهای انسانی وابسته باقی بمانیم؟
به منظور رسیدگی به موارد نام برده، دولت و صنعت استرالیا، با همکاری یکدیگر، چارچوب اصول اخلاقی ویژه برای هوش مصنوعی تدوین نمودند. هدف از این کار، شتابدهی به بحثهای پیرامون شیوه توسعه و به کارگیری فناوری یادشده در استرالیا است.
در سند این چارچوب اخلاقی، شیوههای گسترش، کاربرد و تأثیرات هوش مصنوعی مختلف در سراسر جهان، مورد مطالعه قرار گرفته است. این تحقیقات، به درک اشتباهات صورت گرفته تا این لحظه و چارهاندیشی برای جلوگیری از تکرار آن، کمک خواهد کرد. در این سند، همچنین اقداماتی که در سراسر جهان بهمنظور کاهش نگرانیهای اخلاقی توسعه هوش مصنوعی صورت گرفته است، نیز مورد بررسی قرار گرفتهاند.
بر اساس تحقیقات صورت گرفته و تأثیرات هوش مصنوعی، استرالیا 8 اصل مختلف را به منظور حمایت از اصول اخلاقی موجود در روند توسعه و استفاده از هوش مصنوعی ایجاد کرد که در ادامه قابل مطالعه هستند.
- تولید سود خالص: فواید و راندمان سامانه هوش مصنوعی برای مردم، باید بیشتر از هزینهی آن باشد.
- آسیب وارد نکند: سامانههای هوش مصنوعی غیرنظامی، نباید به گونهای طراحی شوند که به مردم آسیبزده، یا آنها را فریب دهند. بلکه باید به گونه ای باشند که نتایج و تأثیرات منفی را به حداقل برسانند.
- تنظیم مقررات و انطباق با قانون: سامانه هوش مصنوعی، باید با همهی قوانین و مقررات مرتبط بینالمللی، محلی، دولتی، ناحیهای و ایالتی استرالیا، منطبق باشد.
- حفاظت از حریم خصوصی: همهی سیستمها، ازجمله سامانه هوش مصنوعی، باید از حفاظت دادههای حریم خصوصی مردم و محرمانگی آن، اطمینان حاصل کنند. همچنین باید از نقض اطلاعات، جلوگیری به عمل آورند؛ زیرا ممکن است آسیبهای شناختی، روحی، مالی، حرفهای و انواع دیگری از آنها، به قربانیان وارد شود.
- عادل باشد: توسعه، یا استفاده از هوش مصنوعی، نباید به برخوردهای غیرمنصفانه، یا ایجاد تبعیض علیه یک فرد، نژاد، جامعه، یا گروه بینجامد. این موضوع، در زمینه حصول اطمینان از عدم آلوده بودن دادهها به مسائل تبعیضآمیز، به توجهی ویژه نیاز دارد؛ تا الگوریتمهای رفتاری منصفانه را از خود به نمایش بگذارند.
- شفافیت و توضیحپذیری: مردم باید زمانی که یک الگوریتم، مورد استفاده قرار گرفته و روی آنها تأثیر میگذارد، از این مسئله مطلع شوند. همچنین باید در رابطه با دادههایی که الگوریتمی با بهرهمندی از آنها تصمیمگیری کرده و به نتیجه نهایی رسیده است نیز توضیحاتی ارائه گردد.
- مشروعیت: زمانی که یک الگوریتم، روی فردی تأثیر میگذارد، باید یک فرآیند کارآمد وجود داشته باشد که به وی اجازه دهد استفاده، یا خروج از آن را انتخاب کند.
- مسئولیتپذیری: مردم و سازمانهایی که مسئول ایجاد و اجرای الگوریتمهای هوش مصنوعی هستند، باید شناسایی شده و نسبت به اثرات به جای گذاشته شده توسط دستاوردهای خود، پاسخگو باشند. حتی اگر این تأثیرات ناخواسته باشند.
علاوه بر اصول یادشده، ابزارهای مختلفی در این چارچوب شناسایی شدهاند که میتوانند با پشتیبانی، از آنها کمک کنند. این ابزارها شامل: ارزیابی تأثیرات، نظارت مداوم و مشاوره عمومی هستند.
با وجود همهی موارد مطرح شده، اصول و اهداف اخلاقی، تنها تا همین حد قابل گسترش هستند؛ زیرا در بعضی موارد، انسانها باید خودشان روی نحوهی دستیابی و اجرای اصول، تصمیمگیری کنند. در زمان بحث پیرامون اصول اخلاقی و توسعه هوش مصنوعی، پیچیدگیهای مختلفی وجود دارد؛ چون دستاوردهای گسترده این فناوری، روی همهی جنبههای زندگی انسان تأثیر میگذارند.
برنامههای کاربردی هوش مصنوعی، هماکنون در خانهها، کسبوکارها و دولتهای مختلف، مورد استفاده قرار میگیرند و هماکنون بیشتر شهروندان استرالیا، تحت تأثیر آن قرار دارند.
در حال حاضر، نیاز فوری به بررسی اثرات هوش مصنوعی روی گروهها و اقلیتها وجود دارد؛ تا از عدم به نمایش گذاشتن رفتار تبعیضآمیز توسط آن اطمینان حاصل شود. برای نمونه، میتوان به چتبات تای (Tay) اشاره کرد. باتی که مایکروسافت توسعه داد؛ تا مردم در توییتر به گفتگو با آن بپردازند؛ اما جهتگیری گفتگوها باعث شد، تای رفتارهای نژادپرستانه از خود نشان دهد.
به علاوه این واقعیت، غیرقابلانکار است که بیشتر سامانههای هوش مصنوعی مورد استفاده در استرالیا، در خارج از این کشور توسعه یافته اند. بنابراین چگونه میتوان از اجرای استانداردها و انتظارات این کشور، اطمینان حاصل کرد؟
چارچوب اخلاقی، مسائل مختلف حوزه هوش مصنوعی را بررسی میکند. در این زمینه، استرالیا اولین گامها را در مسیر توسعه مثبت و به کارگیری هوش مصنوعی برداشته است؛ اما پیشرفت واقعی، باید توسط سهامداران سراسر دولت، کسبوکارها، دانشگاهها و جوامع دیگر صورت گیرد. به همین دلیل، قالب بندی مذکور، از هماکنون در دسترس عموم قرار گرفته است؛ تا شهروندان این کشور، به صورت آزادانه نظر خود را در رابطه با آن و آینده دیجیتالی پیش روی خود بیان کنند.
با توجه به رویکرد پیشگیرانه بالا در زمینه توسعه اخلاقیات هوش مصنوعی و مقابله با خطرات آن؛ در صورتی که استرالیا بتواند یک نمونه موفق تولید کند که رفتار عادلانه داشته باشد، مزیتهای رقابتی گستردهای به دست آورده، از حقوق شهروندان استرالیایی محافظت به عمل خواهد آورد.