about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

پس از معرفی هوش مصنوعی ChatGPT و درک و دریافت پتانسیل‌های مفید و مخرب آن، حالا بیش از 1100 نفر از جمله افراد سرشناس نامه‌ای سرگشاده را امضا کرده‌اند

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ پس از معرفی هوش مصنوعی ChatGPT و درک و دریافت پتانسیل‌های مفید و مخرب آن، حالا بیش از 1100 نفر از جمله افراد سرشناس نامه‌ای سرگشاده را امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده فوراً حداقل به مدت 6 ماه پروسه آموزش مدل‌های خود را متوقف کنند.

تا زمان نگارش این مطلب، بیش از 1100 امضاکننده از عموم گرفته تا افراد شاخصی چون ایلان ماسک، استیو وزنیاک و تریستان هریس، کارزاری امضا کرده‌اند که در آن از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد فوراً حداقل به مدت 6 ماه آزمایش مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 را متوقف کنند.

در بخشی از این نامه آمده است:

سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقیب انسان در امور روزمره هستند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را پر از تبلیغات و دروغ کنند؟ آیا باید تمام مشاغل، از جمله کارهای خدماتی را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را منسوخ کرده و جایگزینمان شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟ چنین تصمیماتی نباید به رهبران فناوری ناخواسته واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود.

این کارزار همچنین به این استدلال می‌پردازد که «سطحی از برنامه‌ریزی و مدیریت» وجود دارد که «اجرایی نشده است» و در عوض، در ماه‌های اخیر، آزمایشگاه‌های هوش مصنوعی بی‌نام و نشان «در رقابتی خارج از کنترل برای توسعه و عرضه ذهن‌های دیجیتالی قدرتمندتری که هیچ‌کس - حتی سازندگان آن‌ها - نتواند درک کرده، پیش‌بینی کرده یا به‌طور قابل اطمینانی کنترل کند» مشغول شدند.

امضاکنندگان نامه لغو توسعه هوش مصنوعی که برخی از آن‌ها متخصصان هوش مصنوعی نیز هستند، می‌گویند وقفه‌ای که آن‌ها به دنبالش هستند باید «علنی و قابل تأیید باشد و همه بازیگران کلیدی این عرصه را شامل شود». این نامه اذعان دارد، اگر وقفه درخواست شده را «نمی‌توان به سرعت اعمال کرد، دولت‌ها باید وارد عمل شوند و یک تعلیق وضعیت کنند».

مطمئناً این موضوع همانقدر که برای امضا کنندگان این نامه از جمله برخی از مهندسان متا و گوگل، عماد مستقی بنیانگذار و مدیر عامل هوش مصنوعی Stability AI و افرادی که دیگر در آن فن‌آوری نیستند جالب توجه است، برای کسانی که آن را امضا نکرده‌اند نیز اهمیت دارد.

برای مثال، هیچ کس از خود شرکت OpenAI، که طراح مدل زبانی بزرگ GPT-4 است، این نامه را امضا نکرده است. همچنین هیچ کس از Anthropic که تیم آن از OpenAI خارج شد تا یک چت ربات هوش مصنوعی «ایمن‌تر» بسازد هم بین امضاکنندگان این نامه دیده نمی‌شود.

تازه ترین ها
رعایت
1404/02/15 - 20:30- اروپا

رعایت قوانین اروپا توسط مایکروسافت

ترزا ریبرا، معاون رئیس کمیسیون اروپا، اعلام کرد که مایکروسافت متعهد به رعایت قوانین اروپا شده است.

پیش‌بینی
1404/02/15 - 18:50- جنگ سایبری

پیش‌بینی تازه اف بی آی درباره فعالیت‌های گروه‌های طوفان چین

با گذشت نزدیک به دو سال از افشای عمومی حمله گروه هکری تحت حمایت دولت چین به زیرساخت‌های حیاتی آمریکا، تهدید ناشی از آن همچنان ادامه دارد.

بی‌خبری
1404/02/15 - 18:40- جرم سایبری

بی‌خبری بیماران، ماه‌ها پس از افشای داده‌های آزمایشگاهی

بیش از ۱۱ ماه پس از آن‌که یک گروه باج‌افزاری داده‌های شرکت خدمات پاتولوژی بریتانیایی سینوویس را منتشر کرد، هنوز به بیماران آسیب‌دیده اطلاع داده نشده که چه اطلاعاتی از آن‌ها فاش شده است.