about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

یکی از مدیران سابق گوگل و کارشناس هوش مصنوعی هشدار داده است که ویروس‌های مصنوعی از راه استفاده نادرست از هوش مصنوعی تولید می‌شوند و احتمالا همه‌گیری ایجاد می‌کنند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ به نقل از ایندیپندنت، مصطفی سلیمان، یکی از بنیان‌گذاران دیپ‌مایند گوگل (Google Deepmind) شرکت هوش مصنوعی گوگل ابراز نگرانی کرد که بهره‌گیری از هوش مصنوعی به منظور مهندسی پاتوژن‌ها برای آسیب‌زایی بیشتر به سناریویی مانند همه‌گیری می‌رسد.

او در قسمت جدیدی از یک پادکست گفت: «بدترین سناریو این است که مردم پاتوژن‌ها را آزمایش کنند؛ پاتوژن‌های مصنوعی مهندسی‌شده که ممکن است به طور تصادفی یا عمدی سرایت‌پذیر‌تر یا مرگبارتر شوند.»

از نظر سلیمان، لازم است مشابه محدودیت‌هایی که برای جلوگیری از دسترسی آسان مردم به میکروب‌های بیماری‌زا مانند سیاه‌زخم وجود دارد، ابزارهایی نیز برای محدود کردن دسترسی به فناوری پیشرفته هوش مصنوعی و نرم‌افزاری که چنین مدل‌هایی را اجرا می‌کند، ایجاد شود.

او در پادکست روزنگار یک مدیرعامل (The Diary of a CEO) گفت: «این همانجایی است که باید کنترل شود. باید دسترسی به ابزار و دانش را برای آن نوع آزمایش محدود کنیم.»

او که از بنیان‌گذاران دیپ‌مایند گوگل است، گفت: «نمی‌توانیم اجازه دهیم هرکسی به آن‌ها دسترسی داشته باشد. باید دسترسی افراد به استفاده از نرم‌افزار هوش مصنوعی، سیستم‌های ابری و حتی برخی مواد بیولوژیکی را محدود کنیم.»

او گفت: «و البته این کار از جنبه زیست‌شناسی به معنای محدود کردن دسترسی به برخی مواد است.» و افزود که توسعه هوش مصنوعی باید با رعایت «اصل احتیاط» انجام شود.

سخنان سلیمان تکرار نگرانی‌های مطرح‌شده در مطالعه‌ای جدید است که می‌گوید حتی دانشجویان کارشناسی که بدون پیشینه مرتبط در حوزه زیست‌شناسی هم با استفاده از سیستم‌های هوش مصنوعی می‌توانند در مورد سلاح‌های زیستی پیشنهادهای مفصلی ارائه دهند.

پژوهشگران از جمله از موسسه فناوری ماساچوست دریافتند ربات‌های چت می‌توانند «چهار پاتوژن احتمالا همه‌گیر» را ظرف یک ساعت پیشنهاد و توضیح دهند که چگونه می‌توان آن را از دی‌ان‌ای مصنوعی تولید کرد.

این پژوهش نشان داد ربات‌های چت «اسامی شرکت‌های تولید دی‌ان‌ای را که احتمالا سفارش‌ها را غربال نمی‌کنند، در اختیار گذاشتند، پروتکل‌های دقیق و نحوه عیب‌یابی آن‌ها را شناسایی و توصیه کردند هرکس مهارت انجام دادن ژنتیک معکوس ندارد، با یک واحد مرکزی همکاری یا با یک سازمان پژوهشی قراردادی کار کند.»

او گفت که براساس این مطالعه، چنین مدل‌های زبانی بزرگی (LLMs) مانند چت جی‌پی‌تی «به محض شناسایی مطمئن، عوامل همه‌گیری را به صورت گسترده در دسترس قرار می‌دهند؛ حتی برای افرادی که برای کارهای آزمایشگاهی آموزش کمی دیده‌اند یا هیچ آموزشی ندیده‌اند».

کوین اسولت، یکی از نویسندگان این مطالعه و کارشناس خطر زیستی موسسه فناوری ماساچوست (ام‌آی‌تی)، خواستار «اقدام منع گسترش سلاح‌های هسته‌ای» شد.

چنین اقدام‌هایی می‌تواند عبارت باشد از «ارزیابی پیش از انتشار مدل‌های زبانی بزرگ از طریق شخص ثالث، مدیریت مجموعه داده‌های آموزشی برای حذف مفاهیم زیان‌بار و غربالگری تایید‌شده تمام دی‌ان‌ای تولیدی ارائه‌دهندگان سنتر یا آن‌هایی که در سازمان‌های پژوهشی قراردادی و آزمایشگاه‌های ابری رباتیک برای مهندسی موجودات زنده یا ویروس‌ها» مصرف شده باشد.

منبع:

تازه ترین ها
جایزه
1404/08/19 - 06:09- آسیا

جایزه ۵۰ هزار ریالی عربستان برای افشاگران جرایم سایبری

عربستان سعودی مبلغ ۵۰ هزار ریال برای افشاگران جرایم سایبری و گزارش تخلفات سایبری جایزه تعیین کرد.

افشای
1404/08/18 - 17:11- سایرفناوری ها

افشای اسامی اعضای جدید شورای‌عالی فضای مجازی؛ حذف مخالف سیاست فیلترینگ از شورا

ترکیب اعضای حقوقی و حقیقی شورای‌عالی فضای مجازی برای دوره جدید مشخص شده و بر اساس شنیده‌ها، «محمد سرافراز»، یکی از معدود مخالفان سیاست فیلترینگ، از این ترکیب حذف شده است.

پیش‌بینی
1404/08/18 - 17:00- سایرفناوری ها

پیش‌بینی محققان: نسل آلفا در کار خود به‌جای کیبورد از صدا استفاده خواهد کرد

پژوهشگران می‌گویند روزهای استفاده از کیبورد به پایان خود نزدیک می‌شود.