about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

نقش
1404/06/24 - 09:51- جنگ سایبری

نقش سرداران شهید « باقری و سلامی» در برتری قدرت سایبری ایران

رویکرد راهبردی شهیدان باقری و سلامی، نیروهای مسلح ایران را با تدوین دکترین سایبری نوآورانه به یکی از قدرت‌های سایبری تبدیل کرد.

شرکت اُپن اِی آی، قوانین ایمنی هوش مصنوعی خود را به‌روز می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان، شرکت اُپن اِی آی (OpenAI) که با فشار فزاینده‌ای برای عرضه سریع‌تر مدل‌ها مواجه است، اعلام کرد که اگر رقبا معیارهای ایمنی مشابه را نادیده بگیرند، ممکن است قوانین خود را کاهش دهد.

شرکت اُپن اِی آی چارچوب آماده‌سازی خود، سیستم داخلی مورداستفاده برای ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین حفاظت‌های لازم در طول توسعه را به‌روز کرده است.

این شرکت اظهار داشت:

 اگر یک آزمایشگاه هوش مصنوعی رقیب، یک سیستم پرخطر را بدون محافظت‌های مشابه منتشر کند، ممکن است استانداردهای ایمنی خود را تنظیم کند، حرکتی که نشان‌دهنده فشار رقابتی فزاینده در صنعت هوش مصنوعی است.

به‌جای رد صریح چنین انعطاف‌پذیری، شرکت اُپن اِی آی اصرار دارد که هر هرگونه تغییری بااحتیاط و با شفافیت عمومی انجام شود.

منتقدان معتقدند که شرکت اُپن اِی آی در حال حاضر استانداردهای خود را به خاطر استقرار سریع‌تر کاهش داده است. دوازده کارمند سابق این شرکت، به‌تازگی از یک پرونده حقوقی علیه این شرکت حمایت کرده‌اند و هشدار داده‌اند که تغییر ساختار برنامه‌ریزی‌شده شرکت ممکن است باعث ایجاد میانبرهای بیشتر شود.

OpenAI این ادعاها را رد می‌کند، اما گزارش‌ها حاکی از جدول زمانی فشرده آزمایش ایمنی و افزایش اتکا به ارزیابی‌های خودکار به‌جای بررسی‌های انسانی است.

 به گفته منابع، برخی از بررسی‌های ایمنی نیز روی نسخه‌های قبلی مدل‌ها انجام می‌شود، نه نسخه‌های نهایی که برای کاربران منتشر می‌شوند.

چارچوب به‌روز شده همچنین نحوه تعریف و مدیریت ریسک OpenAI را تغییر می‌دهد. مدل‌ها اکنون به‌عنوان دارای قابلیت «بالا» یا «بحرانی» طبقه‌بندی می‌شوند، اولی به سیستم‌هایی اشاره دارد که می‌توانند آسیب را تقویت کنند، دومی به آن‌هایی که خطرات کاملاً جدیدی را معرفی می‌کنند.

منبع:

تازه ترین ها
فرسودگی
1404/08/26 - 19:05- هوش مصنوعي

فرسودگی کارکنان در عصر هوش مصنوعی؛ خطری که مدیران نمی‌بینند

هوش مصنوعی درکنار تمام مزایایی که دارد، می‌تواند برخی عوارض جانبی نیز به همراه داشته باشد.

نصیحت
1404/08/26 - 18:59- هوش مصنوعي

نصیحت «مادرخوانده هوش مصنوعی» به جوانان: در جزئیات غرق نشوید!

وقتی بزرگ‌ترین نام‌های دنیای هوش مصنوعی درباره‌ی مسیر شغلی جوانان هشدار می‌دهند، یعنی روند فعلی اشتباهاتی دارد؛ اما این اشتباه دقیقاً چیست؟

آیا
1404/08/26 - 18:53- هوش مصنوعي

آیا ترجمه هوش مصنوعی بهتر از ترجمه انسانی است؟

آیا هوش مصنوعی مولد (Generative AI) می‌تواند جایگزین خدمات ترجمه انسانی شود؟