about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

نابودی نسل بشر به دست هوش مصنوعی

یک فیزیک دان در سال‌های پایانی زندگی خود هشدار داد که هوش مصنوعی می‌تواند به معنای پایان نسل بشر باشد.

به گزارش کرگروه فناوری اطلاعات سایبربان ؛ مدت‌ها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بوده‌اند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

تازه ترین ها
ایجاد
1404/02/13 - 07:46- آسیا

ایجاد مرکز کوانتومی در امارات

شرکت نورما قصد دارد با هدف حمایت از رشد هوش مصنوعی و امنیت سایبری، یک مرکز تحقیق و توسعه کوانتومی در امارات متحده عربی بسازد.

مارک
1404/02/13 - 07:40- هوش مصنوعي

مارک زاکربرگ: تبلیغات آینده بدون نیاز به آژانس‌ها با هوش مصنوعی ساخته می‌شود

مدیرعامل متا با تبلیغ قابلیت‌های هوش مصنوعی در زمینه تبلیغات، به‌طور علنی به جنگ با تیم‌های خلاق تبلیغاتی رفت.

هشدار
1404/02/13 - 07:34- سایرفناوری ها

هشدار کارشناسان نسبت به اعتماد صددرصدی به نتایج هوش مصنوعی

یک بررسی جدید نشان می‌دهد که تنها درصد کمی از کاربران، درستی نتایج تولیدشده توسط هوش مصنوعی مانند چت‌جی‌پی‌تی، جمنای و کوپایلوت را بررسی می‌کنند. کارشناسان درباره خطرات احتمالی اعتماد به هوش مصنوعی هشدار می‌دهند.