about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزش‌ها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.

به گزارش کارگروه فناوری اطلاعات سایبربان بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کرده‌اند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکان‌پذیر است.

عامل‌های شبیه‌سازی چگونه ایجاد می‌شوند؟

این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آن‌ها، تیم توانست ماکت‌های نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان می‌دهد ماکت‌های نماینده تا چقدر از همتایان انسانی خود تقلید می‌کنند، شرکت‌کنندگان یک سری تست‌های شخصیتی، نظرسنجی‌های اجتماعی و بازی‌های منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نماینده‌ها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک می‌گوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. فکر می‌کنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکت‌ها عامل‌های شبیه‌سازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینه‌ها کاربرد دارند. مطالعاتی که انجام آن‌ها با انسان‌های واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدل‌های هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، می‌توانید از آن‌ها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکه‌های اجتماعی با رواج اطلاعات نادرست مبارزه می‌کند تا تست این که چه رفتار‌هایی باعث ترافیک می‌شوند.

اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. این همان تجسم آینده است.

تفاوت عامل‌ های شبیه‌ سازی با عامل‌های مبتنی بر ابزار

چنین عامل‌ های شبیه‌ سازی کمی متفاوت از عامل‌ها یا agentهایی هستند که امروزه بر کار شرکت‌های پیشرو هوش مصنوعی تسلط دارند. آنها عامل‌های هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدل‌هایی هستند که برای انجام کارها برای شما ساخته شده‌اند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است داده‌ها را وارد کنند. اطلاعاتی را که در جایی ذخیره کرده‌اید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقات‌ها را برنامه‌ریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عامل‌های مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عامل‌هایش را در ژانویه ۲۰۲۵ منتشر کند.

این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکت‌کنندگان شبیه‌سازی شده با هوش مصنوعی تأسیس کرد، می‌گوید: تحقیقات بر روی عامل‌ های شبیه‌ سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عامل‌های هوش مصنوعی قوی‌تر منجر می‌شود.

او اضافه کرد: «این مقاله نشان می‌دهد که چگونه می‌توانید نوعی ترکیب انجام دهید: از انسان‌های واقعی برای تولید شخصیت‌هایی استفاده کنید که می‌توانند به صورت برنامه‌نویسی/ شبیه‌سازی به روش‌هایی مورد استفاده قرار گیرند که با انسان‌های واقعی قابل اجرا نیستند.

این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره می‌کند. همان‌طور که فناوری تولید تصویر، دیپ‌فیک‌های مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت‌ دادن به دیگران به صورت آنلاین، مبهم و سوال‌برانگیز است. به‌خصوص این‌که ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.

تازه ترین ها
نقض
1404/04/12 - 12:56- جرم سایبری

نقض سایبری شرکت مکس فایننشال هند

شرکت مکس فایننشال هند از تهدید سایبری در واحد بیمه عمر اکسیس مکس خود خبر داد.

سرقت
1404/04/12 - 12:34- جرم سایبری

سرقت اطلاعات پرداخت خریداران توسط هکرهای مرتبط با چین

محققان یک شبکه گسترده از وبسایت‌های جعلی فروشگاهی را کشف کرده‌اند که با تقلید از برندهای بزرگ جهانی، اطلاعات پرداخت کاربران اینترنتی را سرقت می‌کنند.

حمله
1404/04/12 - 12:23- جرم سایبری

حمله باج‌افزاری به یک خیریه آلمانی

سازمان خیریه آلمانی "دویچه ولت‌هانگرهیلفه" که هدف آن توسعه منابع غذایی پایدار در برخی از فقیرترین کشورهای جهان است، مورد حمله یک گروه باج‌افزاری قرار گرفته است.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.