اسفند ۱۰
دبیر خبر | ۱۸ فروردین ۱۳۹۸

تصویب اصول اخلاقی هوش مصنوعی در استرالیا

دولت و صنعت استرالیا، به منظور کاهش خطرات هوش مصنوعی، با همکاری یکدیگر، چارچوبی را در زمینه اخلاقیات آن تصویب کردند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ خوب یا بد بودن یک فناوری، به نحوه توسعه و استفاده از آن بستگی دارد. امروزه صحبت در رابطه با مسائل بسیاری مانند دینامیت، مواد شیمیایی و هوش مصنوعی وجود دارد که از این میان، هوش مصنوعی، بیشترین حجم نگرانی‌های یادشده را به خود اختصاص داده است.

زمانی که هوش مصنوعی، به درستی توسعه پیدا کرده، مورد استفاده قرار می‌گیرد، از ظرفیت بالایی برای ایجاد تحول در شیوه‌ی زندگی، کار، مسافرت و ارتباطات برخوردار است.

برای نمونه، هم‌اکنون ابزارهای پزشکی متکی به هوش مصنوعی به وجود آمده‌اند که روند تشخیص بیماری و مراقبت از افراد را بهبود بخشیدهاند. دلایل قانع‌کننده‌ای وجود دارند که وسایل نقلیه بی راننده، ایمنی را افزایش داده، هزینه‌های جاده‌ای را کاهش می‌دهند. یادگیری ماشینی و خودمختارسازی نیز در جریان‌های کاری وارد شده، به انسان‌ها اجازه می‌دهند به صورت هوشمندانه‌تری کار کنند.

با توجه به مزایای یادشده، پذیرش و به‌کارگیری هوش مصنوعی در کاربردهای فردی و دولتی و سازمان‌ها و مؤسسات، به صورت روزافزون درحال افزایش است؛ اما باید توجه داشت که در کنار گنجایش‌های بالقوه‌ی وسیعی که در زمینه بهبود کیفیت زندگی پدیدار می‌شوند، بهره‌مندی نادرست از آن، حقوق و آزادی‌های بشری را با خطر مواجه می‌کند. به همین دلیل، مقامات استرالیا اعلام کردند که باید نظارت مناسب، راهنمایی و درک درست از شیوه توسعه و به‌کارگیری آن، اولویت‌بندی شود.

بر پایه‌ی دیدگاه افراد بسیاری، از کنترل خارج شدن هوش مصنوعی، سناریوهایی را مشابه با فیلم‌های ترمیناتور و «Ex Machina» به وجود می‌آورد؛ اما مسائل بسیار ساده‌تری وجود دارند که اینک باید به آن‌ها توجه نشان داد. این موارد عبارت‌اند از:

  1. شیوه‌ی استفاده از داده‌ها برای توسعه هوش مصنوعی
  2. عمل کردن هوش مصنوعی به صورت منصفانه و بدون تبعیض
  3. در چه موقعیت‌هایی ما باید به تصمیم‌گیری‌های انسانی وابسته باقی بمانیم؟

به منظور رسیدگی به موارد نام برده، دولت و صنعت استرالیا، با همکاری یکدیگر، چارچوب اصول اخلاقی ویژه برای هوش مصنوعی تدوین نمودند. هدف از این کار، شتاب‌دهی به بحث‌های پیرامون شیوه توسعه و به کارگیری فناوری یادشده در استرالیا است.

در سند این چارچوب اخلاقی، شیوه‌های گسترش، کاربرد و تأثیرات هوش مصنوعی مختلف در سراسر جهان، مورد مطالعه قرار گرفته است. این تحقیقات، به درک اشتباهات صورت گرفته تا این لحظه و چاره‌اندیشی برای جلوگیری از تکرار آن، کمک خواهد کرد. در این سند، همچنین اقداماتی که در سراسر جهان به‌منظور کاهش نگرانی‌های اخلاقی توسعه هوش مصنوعی صورت گرفته است، نیز مورد بررسی قرار گرفته‌اند.

بر اساس تحقیقات صورت گرفته و تأثیرات هوش مصنوعی، استرالیا 8 اصل مختلف را به منظور حمایت از اصول اخلاقی موجود در روند توسعه و استفاده از هوش مصنوعی ایجاد کرد که در ادامه قابل‌ مطالعه هستند.

  1. تولید سود خالص: فواید و راندمان سامانه هوش مصنوعی برای مردم، باید بیشتر از هزینه‌ی آن باشد.
  2. آسیب وارد نکند: سامانه‌های هوش مصنوعی غیرنظامی، نباید به گونه‌ای طراحی شوند که به مردم آسیب‌زده، یا آن‌ها را فریب دهند. بلکه باید به گونه ای باشند که نتایج و تأثیرات منفی را به حداقل برسانند.
  3. تنظیم مقررات و انطباق با قانون: سامانه هوش مصنوعی، باید با همه‌ی قوانین و مقررات مرتبط بین‌المللی، محلی، دولتی، ناحیه‌ای و ایالتی استرالیا، منطبق باشد.
  4. حفاظت از حریم خصوصی: همه‌ی سیستم‌ها، ازجمله سامانه هوش مصنوعی، باید از حفاظت داده‌های حریم خصوصی مردم و محرمانگی آن، اطمینان حاصل کنند. همچنین باید از نقض اطلاعات، جلوگیری به عمل آورند؛ زیرا ممکن است آسیب‌های شناختی، روحی، مالی، حرفه‌ای و انواع دیگری از آن‌ها، به قربانیان وارد شود.
  5. عادل باشد: توسعه، یا استفاده از هوش مصنوعی، نباید به برخوردهای غیرمنصفانه، یا ایجاد تبعیض علیه یک فرد، نژاد، جامعه، یا گروه بینجامد. این موضوع، در زمینه حصول اطمینان از عدم آلوده بودن داده‌ها به مسائل تبعیض‌آمیز، به توجهی ویژه نیاز دارد؛ تا الگوریتم‌های رفتاری منصفانه را از خود به نمایش بگذارند.
  6. شفافیت و توضیح‌پذیری: مردم باید زمانی که یک الگوریتم، مورد استفاده قرار گرفته و روی آن‌ها تأثیر می‌گذارد، از این مسئله مطلع شوند. همچنین باید در رابطه با داده‌هایی که الگوریتمی با بهره‌مندی از آن‌ها تصمیم‌گیری کرده و به نتیجه نهایی رسیده است نیز توضیحاتی ارائه گردد.
  7. مشروعیت: زمانی که یک الگوریتم، روی فردی تأثیر می‌گذارد، باید یک فرآیند کارآمد وجود داشته باشد که به وی اجازه دهد استفاده، یا خروج از آن را انتخاب کند.
  8. مسئولیت‌پذیری: مردم و سازمان‌هایی که مسئول ایجاد و اجرای الگوریتم‌های هوش مصنوعی هستند، باید شناسایی شده و نسبت به اثرات به جای گذاشته شده توسط دستاوردهای خود، پاسخگو باشند. حتی اگر این تأثیرات ناخواسته باشند.

علاوه بر اصول یادشده، ابزارهای مختلفی در این چارچوب شناسایی شده‌اند که می‌توانند با پشتیبانی، از آن‌ها کمک کنند. این ابزارها شامل: ارزیابی تأثیرات، نظارت مداوم و مشاوره عمومی هستند.

با وجود همه‌ی موارد مطرح شده، اصول و اهداف اخلاقی، تنها تا همین حد قابل گسترش هستند؛ زیرا در بعضی موارد، انسان‌ها باید خودشان روی نحوه‌ی دستیابی و اجرای اصول، تصمیم‌گیری کنند. در زمان بحث پیرامون اصول اخلاقی و توسعه هوش مصنوعی، پیچیدگی‌های مختلفی وجود دارد؛ چون دستاوردهای گسترده این فناوری، روی همه‌ی جنبه‌های زندگی انسان تأثیر می‌گذارند.

برنامه‌های کاربردی هوش مصنوعی، هم‌اکنون در خانه‌ها، کسب‌وکارها و دولت‌های مختلف، مورد استفاده قرار می‌گیرند و هم‌اکنون بیشتر شهروندان استرالیا، تحت تأثیر آن قرار دارند.

در حال حاضر، نیاز فوری به بررسی اثرات هوش مصنوعی روی گروه‌ها و اقلیت‌ها وجود دارد؛ تا از عدم به نمایش گذاشتن رفتار تبعیض‌آمیز توسط آن اطمینان حاصل شود. برای نمونه، می‌توان به چت‌بات تای (Tay) اشاره کرد. باتی که مایکروسافت توسعه داد؛ تا مردم در توییتر به گفتگو با آن بپردازند؛ اما جهت‌گیری گفتگوها باعث شد، تای رفتارهای نژادپرستانه از خود نشان دهد.

به علاوه این واقعیت، غیرقابل‌انکار است که بیشتر سامانه‌های هوش مصنوعی مورد استفاده در استرالیا، در خارج از این کشور توسعه یافته اند. بنابراین چگونه می‌توان از اجرای استانداردها و انتظارات این کشور، اطمینان حاصل کرد؟

چارچوب اخلاقی، مسائل مختلف حوزه هوش مصنوعی را بررسی می‌کند. در این زمینه، استرالیا اولین گام‌ها را در مسیر توسعه مثبت و به کارگیری هوش مصنوعی برداشته است؛ اما پیشرفت واقعی، باید توسط سهامداران سراسر دولت، کسب‌وکارها، دانشگاه‌ها و جوامع دیگر صورت گیرد. به همین دلیل، قالب بندی مذکور، از هم‌اکنون در دسترس عموم قرار گرفته است؛ تا شهروندان این کشور، به صورت آزادانه نظر خود را در رابطه با آن و آینده دیجیتالی پیش روی خود بیان کنند.

با توجه به رویکرد پیشگیرانه بالا در زمینه توسعه اخلاقیات هوش مصنوعی و مقابله با خطرات آن؛ در صورتی که استرالیا بتواند یک نمونه موفق تولید کند که رفتار عادلانه داشته باشد، مزیت‌های رقابتی گسترده‌ای به دست آورده، از حقوق شهروندان استرالیایی محافظت به عمل خواهد آورد.

نظرات

5 + 2 =