دی ۳۰
دبیر خبر | ۱۲ خرداد ۱۳۹۸

عملکرد سازمان سیا در حوزه هوش مصنوعی

به گفته کارشناسان غربی، سازمان سیا به مسئله تعصب در حوزه هوش مصنوعی توجه نشان می‌دهد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ همانطور که آژانس اطلاعات مرکزی (Central Intelligence Agency)، هوش مصنوعی و یادگیری ماشینی را برای بهینه‌سازی مأموریت خود کنترل می‌کند، کارمندان داخلی به‌صورت تهاجمی با مسائل تعصبی و اخلاقی در این فناوری نوظهور دست و پنجه نرم می‌کنند.

بنجامین هابنر (Benjamin Huebner)، افسر آزادی‌های مدنی و حفظ حریم خصوصی سازمان سیا در نشستی به میزبانی مؤسسه بروکینگز در واشنگتن گفت:

ما در مرکز یاد شده روی بیش از 100 طرح ابتکاری هوش مصنوعی کار می‌کنیم و این امر ادامه خواهد یافت. ما تمام مدت درمورد این مسئله بسیار پیچیده فکر می‌کنیم.

هابنر اعلام کرد یکی از بخش‌های مورد علاقه شغلی وی همکاری با دانشمندان داده آژانس اطلاعاتی است. تیم حفظ حریم خصوصی او، به‌طور مستقیم با همکاران فن‌آوری روی پروژه‌های آماری، برنامه‌نویسی و نمایش‌های گرافیکی کار می‌کند.

وی افزود:

بخشی از کار، استفاده از تجزیه و تحلیل‌های جدید به‌ویژه برای مجموعه داده‌های بزرگ به منظور رسیدن به اطلاعاتی است که ما قبلاً قادر به انجام آن نبودیم. همچنین استفاده از پیشرفت در یادگیری ماشینی برای درک مواردی است که به عنوان انسان ظرفیت مشاهده آن را نداشتیم.

افسر آزادی‌های مدنی و حفظ حریم خصوصی سازمان سیا، با یکسان فرض کردن چشم‌انداز و فن‌آوری جدید امروز با دهه‌های 1970 و 1980 – زمانی که کارگران شروع به استفاده از رایانه برای کار سازمانی کردند و روزهای ابتدایی که سازمان بازرسی فدرال شروع به استفاده از خودروها کرد – اظهار داشت:

من واقعاً دوست ندارم که مردم هوش مصنوعی را با عملکردی بسیار متفاوت در نظر بگیرند. این یکی از ابزارهایی است که احتمالاً در مکان‌های مختلف استفاده خواهد شد. اما توضیح و تعصب در این فناوری نوظهور بدون عواقب نخواهند بود.

هابنر توضیح داد:

یکی از موضوعات جالب در مورد یادگیری ماشینی – که جنبه تقسیم اطلاعاتی ما محسوب می‌شود – این است که کارشناسان در موارد زیادی با تجزیه و تحلیل‌هایی با دقیق‌ترین نتایج، حداقل توضیح در مورد نحوه رسیدن الگوریتم به پاسخ را ارائه می‌دهند. الگوریتمی که داده‌ها را نشان می‌دهد، یک جعبه سیاه است و به عنوان مأمور سازمان سیا این یک مشکل به حساب می‌آید.

سازمان نه تنها باید دقیق باشد، بلکه باید بتواند چگونگی رسیدن به نتیجه نهایی را نشان دهد. بنابراین اگر تحلیلی قابل توضیح نباشد، برای تصمیم‌گیری آماده نخواهد بود.

این مقام آمریکایی همچنین گفت:

تیم من با دانشمندان داده سازمان سیا برای کاهش تعصب در هوش مصنوعی قابل اجرا در سازمان به‌طور مستقیم همکاری می‌کند. وقتی در مورد مسئله‌ای مانند تعصب، داده‌های آموزشی یا نحوه آموزش تحلیل یادگیری ماشینی می‌اندیشید، بدان معنی است که احتمالا تعصب را وارد آن‌ها می‌کنید. بنابراین می‌خواهید در رابطه با آن بدانید.

گاهی اوقات داده‌ها برای آموزش یک الگوریتم مفید هستند؛ اما شاید شامل اطلاعات خصوصی بدون ارتباط با اطلاعات خارجی نیز باشند. وظیفه هابنر و تیمش، درک نحوه تعادل استفاده از اطلاعات مناسب برای آموزش ماشین‌ها و تأیید ابزارهای محدود حفظ حریم خصوصی است.

هابنر خاطرنشان کرد:

در حال حاضر، من به دنبال توسعه چارچوب عملی برای کارمندان داخلی به منظور استفاده از پروژه‌های جدیدی هستم که آنها را مجبور به تفکر در مورد حریم خصوصی، توضیح و تعصب پیش از ارائه تجزیه و تحلیل جدید برای مأموریت‌ها می‌کنند.

وی ادامه دا:

خیلی خوب است که مردم از فناوری در فضای تجاری استفاده می‌کنند؛ اما ما شما را مجبور به انجام کاری نمی‌کنیم. ما نیاز به دقت بیشتری داریم و باید بدانیم که چطور به اینجا رسیده‌اید.

نظرات

11 + 2 =