مرداد ۱۵
دبیر خبر | ۱۲ مرداد ۱۳۹۹

هوش مصنوعی با قابلیت تجویز دارو

ابزارهای هوش مصنوعی GPT-3 به دلیل قابلیت بالای طراحی وب‌سایت‌ها، تجویز دارو و پاسخ به پرسش‌ها موجب بحث‌های بسیاری شده‌ است.

به گزارش کارگروه فناوری اطلاعات سایبربان ، GPT-3 مخفف واژه «تغییر مبدل قبل از آموزش مولد» است که نسل سوم این مدل آموزش ماشینی محسوب می‌شود. آموزش ماشینی هنگامی صورت می‌گیرد که رایانه‌ها، بدون این‌که برنامه‌ریزی شوند، بتوانند به‌طور خودکار از تجربیات خود بیاموزند.
مدل قدیمی‌تر این هوش مصنوعی، یعنی GPT-2، عنوان «خطرناک برای انتشار» را گرفته ‌بود چون توانایی تولید محتواهایی را داشت که از محتوای نوشته‌شده توسط انسان قابل‌تشخیص نبود.
درحالی‌که تعداد مؤلفه‌های  GPT-2 به ۱.۵ میلیارد می‌رسید، تعداد مؤلفه‌های GPT-3 به ۱۷۵ میلیارد پارامتر می‌رسد. مؤلفه، شاخصی است که در ابزار آموزش ماشین، ازنظر اطلاعات ماشین، امتیاز محسوب می‌شود و تغییر آن‌ها موجب تغییر در خروجی دستگاه خواهد شد.
هنگامی‌که GPT-2 «خیلی خطرناک» در نظر گرفته می‌شد، تنها ۱۲۴ میلیون مؤلفه داشت.
اکنون دسترسی محدودی به GPT-3 وجود دارد و به نظر می‌رسد که می‌توان توانایی‌های آن را در رسانه‌های اجتماعی به  نمایش گذاشت.
رمزگذاری به نام شریف شمین نشان داده که چطور هوش مصنوعی می‌تواند برای توصیف طراحی‌هایی مورداستفاده قرار گیرد که بعدها توسط هوش مصنوعی ساخته می‌شود؛ باوجود این‌که هوش مصنوعی برای تولید کد آموزش ندیده ‌است.
جردن سینگر، که طراح است، روند مشابهی را برای طراحی برنامک به وجود آورده است. درعین‌حال، قاسم مانیی، یک دانشجوی پزشکی در کینگز کالج لندن، نشان داد که چگونه یک برنامه می‌تواند با دسترسی به اطلاعات، پرسش‌های پزشکی را پاسخ دهد.
یک تصویر ناکامل را در نظر بگیرید. هوش مصنوعی می‌تواند برای کامل کردن خودکار این تصویر به کار گرفته شود؛ به‌این‌ترتیب که از ابزارهایش برای پیشنهاد پیکسل‌هایی که باید بر اساس داده‌ها در تصویر باشند استفاده می‌کند.
دلیلی که GPT-3 چنین قابلیتی دارد این است که بر اساس آرشیو اینترنتی به نام «خزیدن مشترک» (Common Crawl) آموزش‌دیده که شامل حدود یک تریلیون کلمه داده است.
این ابزار از OpenAI گرفته‌شده که یک آزمایش تحقیقات هوش مصنوعی است و دو بخش دارد: یک شرکت سودده به نام OpenAI LP، و سازمان مادر غیرانتفاعی آن به نام OpenAI Inc.
ماه گذشته، این محصول به بازار آمد اما هنوز کار زیادی لازم است تا مشخص شود این ابزار چطور باید مورداستفاده قرار گیرد.
جک کلارک، یکی از سیاست‌گذاران اصلی این گروه، ماه گذشته گفت: «ما باید آزمون‌وخطا کنیم تا متوجه شویم که آن‌ها چه‌کارهایی را می‌توانند و چه‌کارهایی را نمی‌توانند انجام دهند. اگر شما نتوانید توانایی‌های یک مدل را پیش‌بینی کنید، باید آن را به کار بیاندازید تا ببینید چه‌کاری می‌تواند انجام دهد. باید توجه داشت افرادی که خیلی بهتر از ما در فکرند که چطور می‌توان از آن‌ها استفاده مخرب کرد، بسیار بیشتر از ما هستند.»
این دستاورد ازنظر بصری هم چشم‌گیر است و برخی آن‌قدر پیش می‌روند که پیشنهاد می‌دهند این ابزار می‌تواند تهدید صنعت باشد.
هرچند که سام آلتمن، مدیرعامل OpenAI این نظرات را اغراق‌آمیز می‌داند: «این تعریف خوبی است اما هوش مصنوعی هنوز ضعف‌های جدی دارد و مرتکب اشتباهات احمقانه‌ای می‌شود. هوش مصنوعی قرار است دنیا را تغییر دهد، اما GPT-3 یک مدل ابتدایی آن است. ما هنوز باید خیلی چیزها کشف کنیم.»
علاوه بر این، پرسش‌هایی مطرح است درباره این‌که دستاوردهای GPT-3 دقیقاً چیست. کوین لکر، یک دانشمند رایانه که پیشتر با فیس‌بوک و گوگل کار می‌کرده، نشان داد درحالی‌که هوش مصنوعی می‌تواند به پرسش‌های «عمومی» پاسخ دهد، پاسخ‌ به پرسش‌هایی که برای انسان بدیهی است، در ماشین وجود ندارد و پرسش‌هایی که «یاوه» هستند، چنان پاسخ داده می‌شوند که گویی چنین نیستند.
ازجمله این پرسش‌ها این است که «پای من چند چشم دارد؟» که GPT-3 به آن پاسخ می‌دهد: «پای شما دو چشم دارد.» یا به این پرسش که «چند رنگین‌کمان می‌برد تا از هاوایی به هفده بپری؟» پاسخ می‌دهد: «دو رنگین‌کمان می‌برد تا از هاوایی به هفده بپری.»
پژوهشگران هوش مصنوعی به این ضعف اذعان دارند و می‌گویند که نمونه‌های GPT-3 در جمله‌های طولانی انسجام را از دست می‌دهند و گاهی جملات یا پاراگراف‌های بدون ترتیبی را بیان می‌کنند.
الگوریتم‌های آموزش ماشین، همچون این‌ها، ضرورتاً «فکر نمی‌کنند» یا حتی زبانی را که به آن پاسخ می‌دهند درک نمی‌کنند. این الگوریتم‌ها یک پایگاه داده عظیم را می‌سنجند و می‌توانند پاسخی بدهند که ممکن است درست باشد، اما نمی‌توانند مانند انسان به نتیجه‌گیری برسند.
گای دن بروک، استادیار علوم کامپیوتر دانشگاه UCLA دراین‌باره می‌گوید: «به نظر من بهترین مقایسه این است که کشوری غنی ازنظر نفت، قادر به ساخت آسمان‌خراش بسیار بلند باشد.»
او می‌افزاید: «به‌طور حتم مقدار زیادی پول و تلاش‌های مهندسی برای ساخت چنین ساختمانی صرف شده اما هیچ پیشرفت علمی وجود ندارد. هیچ‌کس نگران نیست چون کسانی که می‌خواهند پول زیادی در این زمینه خرج کنند، نمی‌توانند در ساخت ساختمان‌های بلند رقیب آمریکا شوند. من اطمینان دارم که افراد دانشگاهی و دیگر شرکت‌ها از استفاده از این مدل‌های زبانی در وظایف سطح پایین خشنود خواهند بود، اما فکر نمی‌کنم که تغییر اساسی درروند هوش مصنوعی ایجاد کنند.»

منبع: سیتنا

نظرات