about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار درباره خلأ سواد رسانه‌ای در نهادهای رسمی

در روزهای اخیر با توجه به پخش برخی تصاویر از مقرهای نظامی در صدا و سیما باید خاطرنشان شویم که انتشار برخی ویدئوها می‌تواند جنگ روایت‌ها را علیه ایران تغییر دهد.

بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزش‌ها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.

به گزارش کارگروه فناوری اطلاعات سایبربان بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کرده‌اند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکان‌پذیر است.

عامل‌های شبیه‌سازی چگونه ایجاد می‌شوند؟

این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آن‌ها، تیم توانست ماکت‌های نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان می‌دهد ماکت‌های نماینده تا چقدر از همتایان انسانی خود تقلید می‌کنند، شرکت‌کنندگان یک سری تست‌های شخصیتی، نظرسنجی‌های اجتماعی و بازی‌های منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نماینده‌ها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک می‌گوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. فکر می‌کنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکت‌ها عامل‌های شبیه‌سازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینه‌ها کاربرد دارند. مطالعاتی که انجام آن‌ها با انسان‌های واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدل‌های هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، می‌توانید از آن‌ها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکه‌های اجتماعی با رواج اطلاعات نادرست مبارزه می‌کند تا تست این که چه رفتار‌هایی باعث ترافیک می‌شوند.

اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. این همان تجسم آینده است.

تفاوت عامل‌ های شبیه‌ سازی با عامل‌های مبتنی بر ابزار

چنین عامل‌ های شبیه‌ سازی کمی متفاوت از عامل‌ها یا agentهایی هستند که امروزه بر کار شرکت‌های پیشرو هوش مصنوعی تسلط دارند. آنها عامل‌های هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدل‌هایی هستند که برای انجام کارها برای شما ساخته شده‌اند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است داده‌ها را وارد کنند. اطلاعاتی را که در جایی ذخیره کرده‌اید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقات‌ها را برنامه‌ریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عامل‌های مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عامل‌هایش را در ژانویه ۲۰۲۵ منتشر کند.

این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکت‌کنندگان شبیه‌سازی شده با هوش مصنوعی تأسیس کرد، می‌گوید: تحقیقات بر روی عامل‌ های شبیه‌ سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عامل‌های هوش مصنوعی قوی‌تر منجر می‌شود.

او اضافه کرد: «این مقاله نشان می‌دهد که چگونه می‌توانید نوعی ترکیب انجام دهید: از انسان‌های واقعی برای تولید شخصیت‌هایی استفاده کنید که می‌توانند به صورت برنامه‌نویسی/ شبیه‌سازی به روش‌هایی مورد استفاده قرار گیرند که با انسان‌های واقعی قابل اجرا نیستند.

این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره می‌کند. همان‌طور که فناوری تولید تصویر، دیپ‌فیک‌های مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت‌ دادن به دیگران به صورت آنلاین، مبهم و سوال‌برانگیز است. به‌خصوص این‌که ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.

تازه ترین ها
افتتاح
1404/11/09 - 14:43- هوش مصنوعي

افتتاح پردیس بین‌المللی هوش مصنوعی در دبی

یک مدرسه هوش مصنوعی و کدنویسی مستقر در بریتانیا قصد دارد یک پردیس بین‌المللی در دبی افتتاح کند.

ارائه
1404/11/09 - 14:22- سایرفناوری ها

ارائه ویژگی‌های محافظتی در برابر سرقت توسط اندروید

اندروید در حال ارائه ویژگی‌های محافظتی در برابر سرقت باهدف کاهش کلاهبرداری مالی و محافظت از داده‌های شخصی است.

حمایت
1404/11/09 - 14:21- آمریکا

حمایت کمیسیون تجارت فدرال از احراز هویت سنی آنلاین

یکی از کمیسرهای کمیسیون تجارت فدرال آمریکا می‌گوید احراز هویت سنی در فضای آنلاین می‌تواند راهی مؤثر برای حفاظت از کودکان باشد، بدون آنکه نوآوری یا نقش والدین را تضعیف کند.