تیر ۲۳
دبیر خبر | ۱۱ مرداد ۱۳۹۷

روشنگری چگونه پایان می‌یابد؟ (بخش دوم)

به عقیده بسیاری از کارشناسان، جامعه انسانی، هنوز از لحاظ فکری و فلسفی، برای گسترش هوش مصنوعی آماده نیست.

سامانه‌های هوش مصنوعی، به‌واسطه‌ رشته عملیات‌ بی‌شمار خود، به‌صورت پیوسته، درحال دریافت و واکاوی داده‌ها هستند. سپس بر پایه این اقدامات، وضعیت خود را بهبود می‌بخشند. هوش مصنوعی، به واسطه‌ این سلسله پردازش‌ها، ویژگی‌هایی را که از قبل برای انسان رزرو شده بودند، توسعه می‌بخشد. این فرآورده نوظهور، بر اساس اطلاعاتی که دریافت می‌کند (مانند قوانین یک بازی)، یا داده‌هایی که خود گرد‌آوری می‌نماید (برای مثال از طریق تکرار یک‌میلیون دفعه‌ای یک پروسه تکراری)، راهبردهای آینده را مدیریت می‌آورد.

خودروهای بی‌راننده، تفاوت عملکرد میان کنترل سنتی ازسوی انسان‌ها، نرم‌افزارهای رایانه‌ای و هوش مصنوعی همه‌منظوره‌ای را که در پی جهت‌یابی است، نشان می‌دهند. رانندگی نیاز به اجرای تصمیم‌گیری در موقعیت‌هایی دارد که پیش‌بینی و برنامه‌ریزی آن‌ها غیرممکن است. چه اتفاقی می‌افتد اگر برای مثال، چنین خودرویی مجبور شود بین کشتن پدربزرگ و نوه، یکی را برگزیند؟ چه کسی باید این انتخاب را انجام دهد؟ چرا؟ در میان همه‌ تعیین تکلیف‌ها، کدام برگ خرید، باعث بهینه‌سازی کوشش‌ها می‌شود؟ و آیا می‌توان دلیل آن را توضیح داد؟ این یک چالش است. اگر امکان برقراری ارتباط وجود داشت، پاسخ صادقانه به این مسئله می‌توانست مشابه گزینه زیر باشد:

«نمی‌دانم؛ زیرا من، ریاضیات را دنبال می‌کنم؛ نه اصول انسانی را». یا «شما درک نمی‌کنید؛ زیرا من آموزش دیدم که به شیوه‌ای خاص عمل کنم؛ اما توضیح آن را فرا نگرفته‌ام.» با وجود این، به‌نظر می‌رسد خودروهای بی‌راننده در طول یک دهه‌ آتی، به‌شدت گسترش می‌یابند.

تحقیقات هوش مصنوعی، تاکنون در زمینه‌های خاصی محدود شده بودند؛ اما هم‌اکنون پژوهش‌های مربوط به آن، به سمتی سوق پیدا کرده است که هوشی برای اجرای وظایف در حوزه‌های گوناگون به‌وجود آید. در یک بازه زمانی قابل ‌اندازه‌گیری، درصد رو به رشدی از فعالیت‌های انسانی، به‌وسیله الگوریتم‌های هوش مصنوعی هدایت خواهد شد؛ اما این الگوها، تفاسیر ریاضی به‌دست آمده از داده‌ها هستند و هیچ توضیحی ارائه نمی‌کنند. جالب این که هر چه دنیا شفاف‌تر شود، ابهامات آن نیز به‌طور فزاینده‌ای افزایش می‌یابد. چه چیزی باعث تمایز میان جهانی که ما می‌شناسیم، از هستی جدید خواهد شد؟ ما چگونه در آن زندگی خواهیم کرد؟ چگونه هوش مصنوعی را مدیریت کرده، بهبود می‌دهیم، یا از آسیب‌رسانی به آن - که یکی از اصلی‌ترین نگرانی‌های موجود است - جلوگیری می‌کنیم. هوش مصنوعی، با تسلط روی صلاحیت‌های مشخص، بسیار سریع‌تر و قطعی‌تر از بشر می‌تواند در طول زمان، شرایط و خصلت‌های انسانی را به داده تبدیل کند.

هوش مصنوعی، در آینده منافع بسیاری را برای عرصه‌ علوم پزشکی، تأمین انرژی پاک، مسائل محیط‌ زیست و زمینه‌های گوناگون دیگر به همراه دارد؛ اما دقیقا به‌علت این که قضاوت خاص خود را بر پایه آینده‌ای که هنوز نامشخص است تکمیل می‌کند، عدم قطعیت و وجود ابهام در نتایج آن طبیعی هستند. در این زمینه، 3 نگرانی اصلی وجود دارد:

اول:

هوش مصنوعی ممکن است دست‌آوردهایی غیرمنتظره پدید آورد. این فن‌آوری، در داستان‌های عملی تخیلی به آفریننده تبدیل می‌شود. این خطر وجود دارد که بازدهی مورد بحث، به‌علت کمبود طبیعی، شیوه‌نامه‌های انسانی را اشتباه تفسیر کند. یکی از مشهورترین نمونه‌های اخیر در این رابطه، چت باتی به نام تای (Tay) است. این بات، به‌منظور ایجاد گفت‌وگویی دوستانه در قالب زبان گفتاری دختری 19 ساله طراحی شده بود؛ اما این هوش مصنوعی ثابت کرد؛ قادر به تعریف قواعد زبانی معقول و صمیمانه‌ای که برای آن، تعریف نموده‌اند، نیست و به جای آن‌ها، از عبارات نژادپرستانه، جنسیتی و فسادآمیز در پاسخ‌های خود بهره می‌گیرد.

فعالان عالم فن‌آوری ادعا می‌کنند که این آزمایش، در اجرا، ضعف و نقص داشته است؛ اما یک ابهام اساسی در این میان وجود دارد. هوش مصنوعی، تا چه اندازه‌ای به‌منظور درک دستورالعمل‌هایی که برای آن تعریف می‌شود، قابل توسعه است؟ چه رسانه‌ای می‌تواند به تای، در تعریف معنای تعرض به آن کمک کند؟ کلمه‌ای که انسان‌ها با آن موافق نیستند. آیا می‌توانیم برنامه آن هوش مصنوعی را که بیرون از چارچوب انتظار ما عمل می‌کند، در مرحله‌ ابتدایی، شناسایی و تصحیح کنیم؟ آیا ممکن است هوش مصنوعی، به‌جز ابزارهای خودش، انحرافات کوچکی را به‌وجود آورد که به مرور زمان، پیامدهای فاجعه‌بار داشته باشند؟

دوم:

هوش مصنوعی، در دست‌یابی به اهداف موردنظر، احتمالا فرآیندهای تعقل و ارزش انسانی را تغییر دهد. آلفاگو قهرمان‌ بازی گو را از طریق به‌کارگیری یک حرکت راهبردی دور از انتظار شکست داد. حرکتی که انسان‌ها، توقع انجام دادنش را نداشتند و همچنان شیوه‌ مقابله با آن را فرا نگرفته‌اند. آیا این حرکات، فراتر از گنجایش مغز انسان است؟ آیا انسان‌ها هم‌اکنون توانایی یادگیری این حرکات را - که ازسوی اساتید جدید به نمایش گذاشته شده‌اند - دارند؟

پیش از این که هوش مصنوعی، شروع به اجرای بازی گو کند، این سرگرمی، از اهدافی متنوع و چندلایه بهره می‌برد. بازیکنان در این تفریح، نه‌تنها تلاش می‌کنند پیروز شوند؛ بلکه راهبردهای نوینی را یاد می‌گیرند که قابلیت کاربرد در دیگر ابعاد زندگی دارند. در مقابل، هوش مصنوعی فقط به قصد پیروزی، این سرگرمی را انجام می‌دهد. این محصول ویژه، هیچ مفهومی را جز ریاضیات، با تنظیم دوباره الگوریتم‌های خود یاد نمی‌گیرد. درنتیجه گویا هوش مصنوعی، به‌منظور فراگیری بازی برای پیروزی، طبیعت و تأثیر آن را دگرگون کرده است. آیا این نوآوری تک‌بعدی را می‌توان به همه‌ هوش‌های مصنوعی نسبت داد؟

دیگر پروژه‌های هوش مصنوعی، با گسترش ابزارهایی که توانایی ایجاد طیف وسیعی از پاسخ‌ها دارند، روی اصلاح انسان کار می‌کنند. فراتر از پرسش‌های حقیقی مانند: دمای خارج از خانه چقدر است؟، سؤالاتی درباره واقعیت، یا معنای زندگی هستند که فهم مسائل را عمیق‌تر می‌کنند. آیا ما می‌خواهیم کودکانمان، ارزش‌های خود را از طریق الگوریتم‌های تهدیدآمیز فرا گیرند؟ آیا ما باید یادگیری هوش مصنوعی را در رابطه با پرسشگران، به‌منظور محافظت از حریم خصوصی محدود کنیم؟ اگر پاسخ مثبت است، چگونه به این اهداف دست یابیم؟

اگر هوش مصنوعی، پرشتاب‌تر از انسان یاد بگیرد، ما باید منتظر باشیم که فرآیندهای آزمون ‌و خطا نیز با سرعت بیشتری نسبت به آنان صورت می‌گیرد. درنتیجه اشتباهاتی بزرگ‌تر و سریع‌تر از انسان‌ها به‌وجود می‌آیند. همان‌گونه که پژوهشگران هوش مصنوعی، در اغلب موارد پیشنهاد می‌دهند، ممکن است کاهش این اشتباهات، با افزوده شدن هشدارهای مورد نیاز، برای نتایج اخلاقی و نامعقول غیرممکن باشد. همه‌ شاخه‌های دانشگاهی، در تعریف این اصطلاحات ناتوان هستند. درنتیجه آیا هوش مصنوعی باید قاضی خود باشد؟

سوم:

هوش مصنوعی یادشده ممکن است به اهداف موردنظر دست پیدا کند؛ اما نمی‌تواند برای ثمرات حاصل‌شده، دلایلی منطقی ارائه دهد. قابلیت‌های این فن‌آوری، در تعدادی از زمینه‌ها مانند: تشخیص الگو، تجزیه ‌و تحلیل ابر داده و بازی، ممکن است از انسان‌ها فراتر رفته باشند. قدرت برآورد هوش مصنوعی، به‌صورت پیوسته افزایش پیدا می‌کند و احتمالا به‌زودی می‌تواند راه‌کارهایی بهینه و دست‌کم اندکی متفاوت را نسبت به انسان‌ها ایجاد کند. اما آیا در چنین حالتی قادر است اقدامات خود را به‌گونه‌ای قابل ‌درک برای انسان‌ها توضیح دهد؟ آیا تصمیمی که هوش مصنوعی می‌گیرد، از قدرت تفسیر زبانی و منطقی انسان بهتر است؟

در همه‌ تاریخ بشر تاکنون، جامعه در پی ایجاد راه‌هایی برای توضیح کیهان پیرامون خود است. این عامل در قرون‌ وسطا، «دین»، در عصر روشنگری، دلیل، در قرن 19، تاریخ و در سده 20، ایدئولوژی نام داشت. مهم‌ترین سؤالی که همچنان باقی ‌مانده، این است: جهان ما، به چه سمتی هدایت می‌شود؟ اگر قدرت تشریح انسان به‌وسیله هوش مصنوعی ارتقا یابد، چه مقدار از آگاهی برای وی پدید خواهد آمد؟ مردم جامعه نیز دیگر نمی‌توانند برای جهانی که در آن زندگی می‌کنند، عبارتی معنی‌دار پیدا کنند؟

چگونه می‌توان در دنیایی از ماشین‌ها - که تجربه‌ انسان‌ها، به داده‌های ریاضی تفسیرشده از خاطراتشان محدود می‌شود - اطلاع‌رسانی را تعریف کرد؟ چه کسی مسئول اقدامات هوش مصنوعی است؟ چطور باید رفتار اشتباه آن‌ تعیین گردد؟ آیا یک سامانه حقوقی طراحی‌شده ازسوی انسان، قادر به پیش‌بینی فعالیت هوش مصنوعی است؟

درنهایت کاربرد ترکیب واژگان «هوش مصنوعی» ممکن است برای القای این مفهوم، نادرست باشد. این‌گونه ماشین‌ها می‌توانند آن دسته مسائل پیچیده و انتزاعی‌ را حل کنند که در گذشته گره شناسایی‌شان، تنها به‌وسیله انسان باز می‌شد. اما چه می‌شود اگر کاری که انجام می‌دهند، از روی تفکر و تجربه نباشد، بلکه تنها به حافظه و محاسبات بی‌نظیر مربوط گردد؟

به‌دلیل برتری‌های طبیعی، هوش مصنوعی در این خصوص، در هر بازی‌ که شرکت کند، پیروز خواهد شد؛ ولی برای اهداف ما، به‌عنوان انسان، سرگرمی تنها برای پیروز شدن نیست؛ بلکه به‌منظور اندیشیدن است. با درنظر گرفتن یک فرآیند ریاضی مانند: روند فکری و تلاش انسان‌ها از تقلید این فرآیندها، ما در خطر از دست دادن ظرفیت ادراک آدمی قرار می‌گیریم.

پیامدهای این تحول، در برنامه‌ای به نام «آلفازیرو» (AlphaZero) - که به‌تازگی طراحی شده – قابل ‌مشاهده است. آلفازیرو در سطحی فراتر از استادان شطرنج، این بازی را انجام داد و از سبکی بهره گرفت که در گذشته بی‌سابقه بود. این هوش مصنوعی، تنها در طول چند ساعت، به سطحی از مهارت دست ‌یافت که برای انسان، رسیدن به آن، یک هزار و 500 سال زمان نیاز دارد. در ابتدا، تنها قوانین پایه به هوش مصنوعی آموزش داده شده بودند. نه انسان و نه داده‌های تولیدشده ازسوی وی، در این فرآیند خودآموزشی نقش نداشتند. اگر آلفازیرو، به این سرعت، چنین مهارتی را به‌دست آورده است، در مدت 5 سال، آیا تا چه اندازه‌ای پیشرفت می‌کند؟ تأثیر کلی آن، روی ادراک انسان چیست؟ نقش اصول اخلاقی، در این فرآیند که مربوط به برگزیدن‌ها است، چه می‌تواند باشد؟

به‌طور معمول، چنین سؤالاتی به فعالان فن‌آوری و روشنفکران حوزه‌های علمی مربوط می‌شود. فیلسوفان و دیگر افرادی که در علوم انسانی، به شکل‌گیری مفاهیم سابق نظم جهان کمک کرده‌اند، به‌علت عدم آگاهی از سازوکار‌های هوش مصنوعی، یا از دست دادن توانایی خود، در معرض محرومیت قرار دارند. در مقابل، جهان علمی به‌دنبال کشف فرصت‌های فنی دست‌آوردهای آن است. در دنیای راهبردی، نگرانی‌های تجاری، در مقیاسی افسانه‌ای وجود دارند. انگیزه‌ هر 2 بستر، روی محدود کردن اکتشافات، به جای درک آن تمرکز دارد. تا آن‌جا که به این موضوع مربوط می‌شود، در حکومت‌ها، از برنامه‌های کاربردی هوش مصنوعی، به جای تحقیق در زمینه‌ تحولات شرایط انسانی در حوزه‌ امنیت و اطلاعات استفاده خواهد شد.

روشنگری اساسا با دیدگاه فلسفی آغاز شده، با فن‌آوری‌های جدید گسترش می‌یابد؛ اما دوره‌ ما، در خلاف جهت حرکت می‌کند. این فن‌آوری به‌طور بالقوه در جست‌وجوی یک فلسفه‌ راهنما است. دیگر کشورها، طرح‌های عظیم و ملی هوش مصنوعی را ایجاد کرده‌اند. آمریکا هنوز به‌عنوان یک ملت، محدوده‌ خود را کاملا مورد مطالعه قرار نداده، دلایل را بررسی، یا روند یادگیری را آغاز نکرده است. توسعه‌دهندگان هوش مصنوعی، باید شماری از پرسش‌ها را که من در بالا مطرح کردم، به‌منزله بخشی از تلاش‌های خود پاسخ دهند. مقامات آمریکا نیز باید به‌منظور کمک به ایجاد توسعه دیدگاهی فراگیر، یک انجمن دولتی متشکل از متفکران برجسته پدید آورند. این موضوع قطعی است. اگر ما به‌زودی تلاش خود را دراین‌باره آغاز نکنیم، پیش از آن که متوجه شویم، بسیار دیر خواهد شد.»

برای مطالعه بخش اول این نوشتار اینجا کلیک کنید.
 

نظرات