about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

انتشار شده در تاریخ

آموزش هنجارهای اجتماعی به روبات‌ها

به گزارش واحد فناوری اطلاعات سایبربان؛ پیشرفت در زمینه‌ی هوش مصنوعی باعث به وجود آمدن دستیاران مجازی و روباتیکی شده است که به صورت روزافزون می‌توانند وظایف پیچیده‌تری را انجام بدهند. این ابزارهای هوشمند به عنوان همکارانی ایمن و قابل‌اعتماد برای انسان‌ها در نظر گرفته می‌شوند. با وجود این روبات‌ها باید بتوانند ارزیابی سریعی از وضعیتی که در آن قرار دارند داشته و هنجارهای اجتماعی انسانی را به کار بگیرند. چنین هنجارهایی برای بیشتر مردم کاملاً مشخص هستند. به عنوان مثال از همان کودکی به انسان‌ها نحوه‌ی رفتار آن‌ها در جامعه، حضور در گروه‌ها یا عکس‌العمل نشان دادن در شرایط مختلف آموزش داده می‌شود؛ اما یاد دادن این موارد به روبات‌ها یک چالش جدید به شمار می‌رود.
برای برطرف کردن چالش بالا، محققانی با حمایت مالی دارپا اخیراً پروژه‌ای را به انجام رساندند که هدف آن ارائه چارچوبی نظری و رسمی در خصوص هنجارها و شبکه‌های هنجاری بود. این تحقیقات نحوه‌ی انجام فعل و انفعالات نسبت به هنجارها را در ذهن انسان مطالعه کرده و بررسی می‌کند چگونه می‌توان این هنجارها را از طریق الگوریتم‌های تعاملی جدید آموزش داد.
با توجه به اسناد منتشر شده پژوهشگران موفق به ایجاد یک مدل محاسبات شناختی (cognitive-computational model) از هنجارهای انسانی شده‌اند که می‌تواند آن‌ها را در ابزارهای هوشمند کدگذاری کند. به علاوه آن‌ها الگوریتم یادگیری ماشینی جدیدی توسعه دادند که به ماشین‌ها اجازه می‌دهد حتی در شرایطی که برای آن‌ها ناشناخته است با توجه به داده‌های انسانی هنجارها را یاد بگیرند.
پژوهشگران معتقدند تحقیقات بالا از اهمیت زیادی برخوردار است؛ زیرا باعث توسعه و به وجود آمدن سامانه‌های آگاهی می‌شود که با اطمینان بسیار مناسبی می‌توانند نوع رفتار مردم نسبت به هنجارها را در شرایط خاص درک کنند و بر اساس آن عمل کنند.
رضا قنادان (Reza Ghanadan)، مدیر برنامه‌ی دارپا گفت: «هدف از پژوه یاد شده درک و رسمی کردن سامانه‌های هنجاری انسانی و بررسی نحوه‌ی هدایت انسان‌ها توسط آن‌ها است. در نتیجه ما می‌توانیم دستورالعمل‌های جدید برای نحوه‌ی ساخت نسل‌های آینده‌ی هوش مصنوعی ایجاد بکنیم که قادر هستند به شکل مؤثرتری با انسان‌ها تعامل کنند.»
برای نمونه انسان‌ها با توجه به این که در محیط آرامی مانند کتابخانه قرار دارند زنگ تلفن‌های همراه خود را خاموش کرده و این هنجار را مستقیماً به اجرا می‌گذارند. اگر تماسی با یک فرد برقرار شود سعی می‌کند هر چه سریع‌تر صدای تلفن خود را قطع کرد و با صدایی آهسته به مخاطب بگوید ادامه‌ی مکالمه را در خارج از ساختمان انجام خواهد داد. در مقابل هوش‌های مصنوعی به کار رفته در این ابزارها نمی‌توانند به شکل خودکار به چنین هنجارهای اجتماعی حساسی واکنش نشان بدهند.
وی با اشاره به اینکه در بیشتر مسائل پیچیده، هنجارها به سرعت فعال می‌شوند افزود: «این چیزی است که همه‌ی ما با آن آشنا هستیم. مردم نقض هنجارها را به سرعت تشخیص می‌دهند. برای مردم، آموختن هنجارهای جدید یا پیش‌شرط‌های آن‌ها برای فعال‌سازی، در کنار شبکه هنجاری پیچیده‌ای که هم‌اکنون وجود دارد صورت می‌گیرد؛ آن هم نه از یک روش، بلکه بهروش‌های متعددی مانند مشاهده، استنباط و آموزش. عدم اطمینان در داده‌های ورودی توسط انسان‌ها یادگیری هنجارها را برای الگوریتم‌های یادگیری ماشینی بسیار پیچیده و دشوار است.»
وی توضیح داد برای ایجاد یک روبات اجتماعی یا حتی اخلاق مدار، آن‌ها نیاز به ظرفیت بالایی در یادگیری و اعمال حجم عظیمی از هنجارهایی دارند که مردم آن‌ها را به رسمیت شناخته و انتظار دارند از آن‌ها اطلاعات بشود. این کار نسبت به ایجاد سامانه‌های امروزی که تنها محتوای عکس را تشخیص می‌دهد بسیار پیچیده‌تر است؛ اما با ارائه‌ی یک چارچوب برای توسعه و آزمایش الگوریتم‌های پیچیده، سرعت ایجاد سامانه‌هایی که به بهترین شکل ممکن از رفتار انسان‌ها تقلید می‌کنند، بهبود می‌یابد.
قنادان ادامه داد: «اگر ما قرار است با روبات‌ها، خودروهای بی راننده و دستیارهای صوتی آینده‌ی موجود در تلفن یا خانه‌ی خود مطابق امروز ارتباط برقرار کنیم، این دستیارها باید بتوانند از هنجارهای ما پیروی کرده و مشابه آن رفتار کنند.»
برای نمونه روباتی که در آینده در کتابخانه به کار گرفته می‌شود، ممکن است انگشت خود را به نشانه‌ی سکوت بالا بیاورد.
البته باید متذکر شد چنین مسئله‌ای از مدت‌ها قبل در خودروهای بی راننده نیز وجود داشته است. برای نمونه اگر یک خودروی بی راننده با تعدادی عابر پیاده و مانع در مقابل خود مواجه شود، چه اقدامی باید بکند. آیا باید به مانع برخورد کرده و سرنشینان خود را از بین ببرد یا با برخورد به عابران، سرنشینان خود را از مرگ حتمی برهاند؟ این گونه تصمیم‌ها و هنجارها اخلاقی را چه فرد یا افرادی تعیین می‌کند. آیا تضمینی وجود دارد که برنامه نویسان، هنجارها را مطابق با نظر و خواسته‌ی خود به روبات‌ها آموزش ندهند؟ همچنین ممکن است با سو استفاده از چارچوب جدید یاد شده یا هک و جایگذاری هنجارهای جدید و نادرست در این سامانه‌ها، آن‌ها را تشویق به آسیب‌رسانی به مردم یا انجام اعمال مجرمانه کرد.

 

تازه ترین ها
توقف
1404/11/11 - 15:18- هوش مصنوعي

توقف سرمایه‌گذاری انویدیا در اوپن‌اِی‌آی

طرح انویدیا برای سرمایه‌گذاری تا سقف ۱۰۰ میلیارد دلار در شرکت اوپن‌اِی‌آی متوقف شد.

توسعه‌
1404/11/11 - 14:40- هوش مصنوعي

توسعه‌ بخش هوش مصنوعی در ارمنستان

ارمنستان در حال تلاش‌ برای توسعه بخش هوش مصنوعی خود است.

روسیه،
1404/11/11 - 14:39- جنگ سایبری

روسیه، بزرگ‌ترین تهدید سایبری علیه لتونی

سازمان امنیتی لتونی هشدار داده است که حملات سایبری و کارزارهای خرابکارانه روسیه علیه این کشور هیچ نشانه‌ای از کاهش نشان نمی‌دهد، هرچند بیشتر این حوادث تاکنون نتوانسته‌اند اختلال جدی ایجاد کنند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.