about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزش‌ها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.

به گزارش کارگروه فناوری اطلاعات سایبربان بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کرده‌اند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکان‌پذیر است.

عامل‌های شبیه‌سازی چگونه ایجاد می‌شوند؟

این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آن‌ها، تیم توانست ماکت‌های نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان می‌دهد ماکت‌های نماینده تا چقدر از همتایان انسانی خود تقلید می‌کنند، شرکت‌کنندگان یک سری تست‌های شخصیتی، نظرسنجی‌های اجتماعی و بازی‌های منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نماینده‌ها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک می‌گوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. فکر می‌کنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکت‌ها عامل‌های شبیه‌سازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینه‌ها کاربرد دارند. مطالعاتی که انجام آن‌ها با انسان‌های واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدل‌های هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، می‌توانید از آن‌ها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکه‌های اجتماعی با رواج اطلاعات نادرست مبارزه می‌کند تا تست این که چه رفتار‌هایی باعث ترافیک می‌شوند.

اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. این همان تجسم آینده است.

تفاوت عامل‌ های شبیه‌ سازی با عامل‌های مبتنی بر ابزار

چنین عامل‌ های شبیه‌ سازی کمی متفاوت از عامل‌ها یا agentهایی هستند که امروزه بر کار شرکت‌های پیشرو هوش مصنوعی تسلط دارند. آنها عامل‌های هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدل‌هایی هستند که برای انجام کارها برای شما ساخته شده‌اند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است داده‌ها را وارد کنند. اطلاعاتی را که در جایی ذخیره کرده‌اید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقات‌ها را برنامه‌ریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عامل‌های مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عامل‌هایش را در ژانویه ۲۰۲۵ منتشر کند.

این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکت‌کنندگان شبیه‌سازی شده با هوش مصنوعی تأسیس کرد، می‌گوید: تحقیقات بر روی عامل‌ های شبیه‌ سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عامل‌های هوش مصنوعی قوی‌تر منجر می‌شود.

او اضافه کرد: «این مقاله نشان می‌دهد که چگونه می‌توانید نوعی ترکیب انجام دهید: از انسان‌های واقعی برای تولید شخصیت‌هایی استفاده کنید که می‌توانند به صورت برنامه‌نویسی/ شبیه‌سازی به روش‌هایی مورد استفاده قرار گیرند که با انسان‌های واقعی قابل اجرا نیستند.

این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره می‌کند. همان‌طور که فناوری تولید تصویر، دیپ‌فیک‌های مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت‌ دادن به دیگران به صورت آنلاین، مبهم و سوال‌برانگیز است. به‌خصوص این‌که ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.

تازه ترین ها
محققان
1404/07/13 - 19:52- هوش مصنوعي

محققان ماوس گیمینگ را با هوش مصنوعی به ابزار شنود صدای کاربران تبدیل کردند

محققان امنیتی نشان دادند که می‌توان با استفاده از هوش مصنوعی، سنسور حرکت یک ماوس گیمینگ پیشرفته را به یک میکروفون مخفی تبدیل کرد و مکالمات کاربر را از طریق لرزش‌های میز کار شنود کرد.

عجیب
1404/07/13 - 19:49- هوش مصنوعي

عجیب ترین کاربردهای هوش مصنوعی که فکرش را هم نمی‌کنید!

هوش مصنوعی فقط برای کارهای جدی نیست. از همسریابی برای گاوها تا پیشگویی آینده و ساخت خانه جن‌زده، با کاربردهای عجیب هوش مصنوعی آشنا شوید که شما را شگفت‌زده می‌کند.

هوش
1404/07/13 - 19:45- هوش مصنوعي

هوش مصنوعی، کلید پایداری و تحول در مدیریت شهری

رئیس سازمان نظام صنفی رایانه‌ای گفت: شیوه‌های سنتی دیگر پاسخگوی نیاز شهرهای در حال رشد نیستند و تنها با تکیه بر ابزارهایی مانند هوش مصنوعی می‌توان به شهری پایدار، هوشمند و کارآمد دست یافت.