about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

انتشار شده در تاریخ

آموزش هنجارهای اجتماعی به روبات‌ها

به گزارش واحد فناوری اطلاعات سایبربان؛ پیشرفت در زمینه‌ی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون می‌توانند وظایف پیچیده‌تری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابل‌اعتماد برای انسان‌ها در نظر گرفته می‌شوند. با وجود این روبات‌ها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسان‌ها نحوه‌ی رفتار آن‌ها در جامعه، حضور در گروه‌ها یا عکس‌العمل نشان دادن در شرایط مختلف آموزش داده می‌شود؛ اما یاد دادن این موارد به روبات‌ها یک چالش جدید به شمار می‌رود.
برای برطرف کردن چالش بالا، محققانی با حمایت مالی دارپا اخیراً پروژه‌ای را به انجام رساندند که هدف آن ارائه چارچوبی نظری و رسمی در خصوص هنجارها و شبکه‌های هنجاری بود. این تحقیقات نحوه‌ی انجام فعل و انفعالات نسبت به هنجارها را در ذهن انسان مطالعه کرده و بررسی می‌کند چگونه می‌توان این هنجارها را از طریق الگوریتم‌های تعاملی جدید آموزش داد.
با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شده‌اند که می‌تواند آن‌ها را در ابزارهای هوشمند کدگذاری کند. به علاوه آن‌ها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشین‌ها اجازه می‌دهد حتی در شرایطی که برای آن‌ها ناشناخته است با توجه به داده‌های انسانی هنجارها را یاد بگیرند.
پژوهشگران معتقدند تحقیقات بالا از اهمیت زیادی برخوردار است؛ زیرا باعث توسعه و به وجود آمدن سامانه‌های آگاهی می‌شود که با اطمینان بسیار مناسبی می‌توانند نوع رفتار مردم نسبت به هنجارها را در شرایط خاص درک کنند و بر اساس آن عمل کنند.
رضا قنادان (Reza Ghanadan)، مدیر برنامه‌ی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانه‌های هنجاری انسانی و بررسی نحوه‌ی هدایت انسان‌ها توسط آن‌ها است. در نتیجه ما می‌توانیم دستورالعمل‌های جدید برای نحوه‌ی ساخت نسل‌های آینده‌ی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسان‌ها تعامل کنند.»
برای نمونه انسان‌ها با توجه به این که در محیط آرامی مانند کتابخانه قرار دارند زنگ تلفن‌های همراه خود را خاموش کرده و این هنجار را مستقیماً به اجرا می‌گذارند. اگر تماسی با یک فرد برقرار شود سعی می‌کند هر چه سریع‌تر صدای تلفن خود را قطع کرد و با صدایی آهسته به مخاطب بگوید ادامه‌ی مکالمه را در خارج از ساختمان انجام خواهد داد. در مقابل هوش‌های مصنوعی به کار رفته در این ابزارها نمی‌توانند به شکل خودکار به چنین هنجارهای اجتماعی حساسی واکنش نشان بدهند.
وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال می‌شوند افزود: «این چیزی است که همه‌ی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص می‌دهند. برای مردم، آموختن هنجارهای جدید یا پیش‌شرط‌های آن‌ها برای فعال‌سازی، در کنار شبکه هنجاری پیچیده‌ای که هم‌اکنون وجود دارد صورت می‌گیرد؛ آن هم نه از یک روش، بلکه بهروش‌های متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در داده‌های ورودی توسط انسان‌ها یادگیری هنجارها را برای الگوریتم‌های یادگیری ماشینی بسیار پیچیده و دشوار است.»
وی توضیح داد برای ایجاد یک روبات اجتماعی یا حتی اخلاق مدار، آن‌ها نیاز به ظرفیت بالایی در یادگیری و اعمال حجم عظیمی از هنجارهایی دارند که مردم آن‌ها را به رسمیت شناخته و انتظار دارند از آن‌ها اطلاعات بشود. این کار نسبت به ایجاد سامانه‌های امروزی که تنها محتوای عکس را تشخیص می‌دهد بسیار پیچیده‌تر است؛ اما با ارائه‌ی یک چارچوب برای توسعه و آزمایش الگوریتم‌های پیچیده، سرعت ایجاد سامانه‌هایی که به بهترین شکل ممکن از رفتار انسان‌ها تقلید می‌کنند، بهبود می‌یابد.
قنادان ادامه داد: «اگر ما قرار است با روبات‌ها، خودروهای بی راننده و دستیارهای صوتی آینده‌ی موجود در تلفن یا خانه‌ی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»
برای نمونه روباتی که در آینده در کتابخانه به کار گرفته می‌شود، ممکن است انگشت خود را به نشانه‌ی سکوت بالا بیاورد.
البته باید متذکر شد چنین مسئله‌ای از مدت‌ها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیم‌ها و هنجارها اخلاقی را چه فرد یا افرادی تعیین می‌کند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواسته‌ی خود به روبات‌ها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانه‌ها، آن‌ها را تشویق به آسیب‌رسانی به مردم یا انجام اعمال مجرمانه کرد.

 

تازه ترین ها
بومی‌سازی
1404/08/17 - 18:48- هوش مصنوعي

بومی‌سازی هوش مصنوعی در بیمارستان‌های دانشگاه آزاد

مدیر سلامت دانشگاه آزاد از راه اندازی استارت‌آپ ویکند سلامت با محوریت هوش مصنوعی و بیمارستان متاورس خبر داد و گفت: هدف اصلی ما، بومی‌سازی هوش مصنوعی در بیمارستان‌ها است.

مدل‌های
1404/08/17 - 18:45- هوش مصنوعي

مدل‌های استدلال‌گر بیش از دیگر هوش مصنوعی‌ها در برابر حملات «جیلبریک» آسیب‌پذیرند

نتایج مطالعه‌ای مشترک از سوی انتروپیک، دانشگاه آکسفورد و دانشگاه استنفورد حاکی از آن است که مدل‌های پیشرفته هوش مصنوعی با توانایی «استدلال و تفکر چندمرحله‌ای»، برخلاف تصور پیشین، بیش از سایر مدل‌ها نسبت به هک و حملات جیلبریک آسیب‌پذیر هستند.

ایلان
1404/08/17 - 18:37- ابزارهای هوشمند

ایلان ماسک: ربات اپتیموس تسلا فقر را ریشه‌کن خواهد کرد

ایلان ماسک در جلسه سهامداران تسلا و پس از تأیید بسته حقوقی ۱ تریلیون دلاری‌اش ادعا کرد که ربات اپتیموس فقر را ریشه‌کن می‌کند.