about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

بر اساس تحقیقات جدید استنفورد (Stanford) و گوگل دیپ مایند (Google DeepMind)، یک مصاحبه دو ساعته برای ثبت دقیق ارزش‌ها و ترجیحات شما و سپس ساخت یک ماکت از شخصیتتان کافی است.

به گزارش کارگروه فناوری اطلاعات سایبربان بر اساس مقاله جدیدی که تیمی از محققان استنفورد و گوگل دیپ مایند در arXiv منتشر کرده‌اند، ایده ایجاد ماکت مجازی یا عامل های شبیه سازی در حال حاضر امکان‌پذیر است.

عامل‌های شبیه‌سازی چگونه ایجاد می‌شوند؟

این تیم به رهبری جون سونگ پارک (Joon Sung Park)، دانشجوی دکترای علوم کامپیوتر دانشگاه استنفورد، ۱۰۰۰ نفر را استخدام کرد که بر اساس سن، جنسیت، نژاد، منطقه، تحصیلات و ایدئولوژی سیاسی متفاوت بودند. این افراد برای مشارکت در تحقیق تا ۱۰۰ دلار دستمزد دریافت کردند. پس از مصاحبه با آن‌ها، تیم توانست ماکت‌های نماینده (agent replica) از آن افراد را ایجاد کند.
به عنوان آزمونی که نشان می‌دهد ماکت‌های نماینده تا چقدر از همتایان انسانی خود تقلید می‌کنند، شرکت‌کنندگان یک سری تست‌های شخصیتی، نظرسنجی‌های اجتماعی و بازی‌های منطقی، هر کدام دو بار، به فاصله دو هفته انجام دادند. سپس نماینده‌ها همان تمرینات را تکمیل کردند. نتایج ۸۵ درصد مشابه بود.
پارک می‌گوید: «اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. فکر می‌کنم در نهایت این همان تجسم آینده است.
در این مقاله، ماکت‌ها عامل‌های شبیه‌سازی (simulation agents) نام دارند و برای انجام مطالعات محققان علوم اجتماعی و سایر زمینه‌ها کاربرد دارند. مطالعاتی که انجام آن‌ها با انسان‌های واقعی گران، غیرعملی یا غیراخلاقی باشد. اگر بتوانید مدل‌های هوش مصنوعی بسازید که مانند افراد واقعی رفتار کنند، می‌توانید از آن‌ها برای آزمایش همه چیز استفاده کنید. از آزمایش در این مورد که چگونه مداخله در شبکه‌های اجتماعی با رواج اطلاعات نادرست مبارزه می‌کند تا تست این که چه رفتار‌هایی باعث ترافیک می‌شوند.

اگر بتوانید یک دسته «خودتان» در اندازه کوچک داشته باشید و آن‌ها تصمیم‌هایی را بگیرند که اگر خودتان بودید، می‌گرفتید. این همان تجسم آینده است.

تفاوت عامل‌ های شبیه‌ سازی با عامل‌های مبتنی بر ابزار

چنین عامل‌ های شبیه‌ سازی کمی متفاوت از عامل‌ها یا agentهایی هستند که امروزه بر کار شرکت‌های پیشرو هوش مصنوعی تسلط دارند. آنها عامل‌های هوش مصنوعی مبتنی بر ابزار (tool-based agents) نام دارند. در واقع مدل‌هایی هستند که برای انجام کارها برای شما ساخته شده‌اند، نه اینکه با شما صحبت کنند. به عنوان مثال، آنها ممکن است داده‌ها را وارد کنند. اطلاعاتی را که در جایی ذخیره کرده‌اید، بازیابی کنند. برای شما سفر رزرو کنند و قرار ملاقات‌ها را برنامه‌ریزی کنند. به گفته بلومبرگ (Bloomberg)، Salesforce در ماه سپتامبر، و پس از آن Anthropic در ماه اکتبر عامل‌های مبتنی بر ابزار خود را معرفی کردند. OpenAI در نظر دارد عامل‌هایش را در ژانویه ۲۰۲۵ منتشر کند.

این دو نوع عامل متفاوت هستند، اما نقاط مشترکی هم دارند. جان هورتون (John Horton)، دانشیار فناوری اطلاعات در دانشکده مدیریت اسلون (Sloan) MIT، که شرکتی را برای انجام تحقیقات با استفاده از شرکت‌کنندگان شبیه‌سازی شده با هوش مصنوعی تأسیس کرد، می‌گوید: تحقیقات بر روی عامل‌ های شبیه‌ سازی، مانند مواردی که در این مقاله ارائه شده است، احتمالاً به طور کلی به ایجاد عامل‌های هوش مصنوعی قوی‌تر منجر می‌شود.

او اضافه کرد: «این مقاله نشان می‌دهد که چگونه می‌توانید نوعی ترکیب انجام دهید: از انسان‌های واقعی برای تولید شخصیت‌هایی استفاده کنید که می‌توانند به صورت برنامه‌نویسی/ شبیه‌سازی به روش‌هایی مورد استفاده قرار گیرند که با انسان‌های واقعی قابل اجرا نیستند.

این تحقیق با اخطارهایی همراه است و به خطرات چنین فناوری هم اشاره می‌کند. همان‌طور که فناوری تولید تصویر، دیپ‌فیک‌های مضر از افراد را بدون رضایت آنها ایجاد کرد، فناوری تولید عاملی هم در مورد سهولت ایجاد ابزارهایی برای شخصیت‌ دادن به دیگران به صورت آنلاین، مبهم و سوال‌برانگیز است. به‌خصوص این‌که ممکن است منجر به گفتن یا تأیید چیزهایی شود که افراد قصد گفتن آنها را نداشتند.

تازه ترین ها

جریمه ۶۰۰ میلیون دلاری تیک‌تاک

نهاد ناظر بر حفظ حریم خصوصی داده‌ها در ایرلند اعلام کرد که تیک‌تاک را به دلیل نقض قوانین سخت‌گیرانه اتحادیه اروپا درباره نحوه انتقال داده‌های شخصی به خارج از این اتحادیه و عدم رعایت الزامات شفافیت، ۵۳۰ میلیون یورو (معادل ۶۰۰ میلیون دلار) جریمه کرده است.

تاثیر
1404/02/14 - 15:07- جرم سایبری

تاثیر نفوذ اطلاعاتی به اسنشن هلث بر بیش از 100 هزار نفر

شرکت اسنشن هلث این هفته از وقوع یک حادثه امنیتی دیگر خبر داد و به بیش از ۱۰۰ هزار نفر در ایالت‌های مختلف هشدار داد که اطلاعات آن‌ها احتمالاً در اواخر سال گذشته به دست هکرها افتاده است.

اتهام
1404/02/14 - 14:56- جرم سایبری

اتهام آمریکا علیه یک مرد یمنی در ارتباط با حملات باج‌افزاری

دادستان‌های فدرال ایالات متحده اعلام کردند که مردی ۳۶ ساله که گمان می‌رود ساکن یمن باشد، به مدت دو سال در عملیات باج‌افزاری بلک کینگدام یا همان پادشاهی سیاه مشارکت داشته است.