about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
آماده‌سازی
1404/09/11 - 08:18- تروریسم سایبری

آماده‌سازی رژیم صهیونیستی در حوزه فناوری برای جنگ احتمالی بعدی با ایران

رژیم صهیونیستی در حال آماده‌سازی طیف جدیدی از سلاح‌ها و فناوری‌های جدید برای جنگ بعدی با ایران است.

هشدار
1404/09/24 - 10:47- تروریسم سایبری

هشدار رژیم صهیونیستی درمورد حملات سایبری نگران‌کننده ایران

مدیرکل اداره ملی سایبری رژیم صهیونیستی درمورد حملات ایران و احتمال جنگ سایبری هولناک هشدار داد.

هشدار
1404/10/01 - 10:44- جنگ سایبری

هشدار روزنامه اسرائیلی درباره جنگ سایبری با ایران

روزنامه اسرائیلی معاریو پس از یک سری حملات هکری علیه شخصیت‌های ارشد سیاسی و نهادهای دولتی، درباره جنگ سایبری با ایران و تشدید نفوذها هشدار داد.

یک مطالعه علمی که چند ماهی از انتشار آن می‌گذرد اما تاکنون نادیده گرفته شده بود، مدعی است که به صورت ریاضیاتی ثابت کرده مدل‌های زبانی بزرگ (LLMs) «قادر به انجام وظایف محاسباتی و ایجنتی فراتر از یک سطح پیچیدگی خاص نیستند»؛ و نکته حیاتی اینجاست که این سطح ا

به گزارش کارگروه فناوری اطلاعات سایبربان , مقاله‌ای که هنوز تحت داوری همتا (Peer Review) قرار نگرفته، توسط ویشال سیکا (CTO سابق غول نرم‌افزاری آلمان، SAP) و فرزندش وارین سیکا نوشته شده است. ویشال سیکا در حوزه هوش مصنوعی صاحب‌نظر است؛ او شاگرد «جان مک‌کارتی» (دانشمند برنده جایزه تورینگ و بنیان‌گذار رشته هوش مصنوعی که خودِ واژه هوش مصنوعی را ابداع کرد) بوده است.

ویشال سیکا به صراحت اعلام کرد: «هیچ راهی وجود ندارد که این مدل‌ها قابل‌اعتماد باشند.» او همچنین تاکید کرد که باید وعده‌های اغراق‌آمیز طرفداران هوش مصنوعی درباره سپردن مدیریت نیروگاه‌های هسته‌ای و کارهای حساس به ایجنت‌ها را فراموش کنیم.

 

محدودیت‌های ذاتی در معماری هوش مصنوعی

برخلاف شعارهایی که مدیران عامل شرکت‌های فناوری در سخنرانی‌های خود می‌دهند، تحقیقات نشان می‌دهد که محدودیت‌های بنیادی در معماری فعلی هوش مصنوعی نهفته است. حتی محققان خودِ این صنعت نیز با این موضوع موافقند.

در ماه سپتامبر، دانشمندان OpenAI اعتراف کردند که «توهمات هوش مصنوعی» (Hallucinations) همچنان یک مشکل فراگیر در سیستم‌های پیشرفته است و دقت مدل‌ها «هرگز» به ۱۰۰ درصد نخواهد رسید.

برخی شرکت‌ها که سال گذشته با هدف تعدیل نیرو به سراغ ایجنت‌های هوش مصنوعی رفتند، به سرعت دریافتند که این ایجنت‌ها اصلاً در حدی نیستند که جایگزین انسان شوند؛ زیرا به شدت دچار توهم شده و به سختی می‌توانند وظایف محوله را به پایان برسانند.

 

آیا راهکاری وجود دارد؟

رهبران صنعت هوش مصنوعی اصرار دارند که می‌توان با ایجاد «حفاظ‌های خارجی» (Guardrails) خارج از مدل‌های اصلی، توهمات را فیلتر کرد. محققان OpenAI در همان مقاله‌ای که به عدم رسیدن به دقت ۱۰۰ درصدی اعتراف کردند، ایده «اجتناب‌ناپذیر بودن توهمات» را رد کردند و مدعی شدند که مدل‌ها می‌توانند در صورت عدم اطمینان، از پاسخ دادن خودداری کنند؛ هرچند در واقعیت، چت‌بات‌های محبوب فعلی برای حفظ جذابیت، به ندرت چنین رفتاری نشان می‌دهند.

سیکا با وجود اینکه معتقد است مدل‌های زبانی بزرگ دارای یک سقف کاراییِ غیرقابل عبور هستند، با این ایده موافق است که می‌توان توهمات را مهار کرد. او می‌گوید: «یک مدل زبانی بزرگِ "خالص" دارای این محدودیت ذاتی است؛ اما همزمان این درست است که شما می‌توانید در اطراف این مدل‌ها، اجزای دیگری بسازید که بر آن محدودیت‌ها غلبه کنند.»

موضوع:

تازه ترین ها
هشدار
1404/11/10 - 11:17- آسیا

هشدار پلیس دبی برای محافظت از اطلاعات شخصی

پلیس دبی به ساکنان هشدار داد که از اطلاعات شخصی خود در برابر کلاهبرداری سایبری محافظت کنند.

انتشار
1404/11/10 - 11:08- تروریسم سایبری

انتشار پیش‌نویس لایحه حفاظت سایبری ملی رژیم صهیونیستی

رژیم صهیونیستی پیش‌نویس لایحه حفاظت سایبری ملی را برای سازمان‌های ضروری در بخش‌های حیاتی منتشر کرد.

حمله
1404/11/10 - 10:44- جرم سایبری

حمله سایبری به کارخانه بزرگ نان روسیه

حمله سایبری به کارخانه بزرگ نان ولادیمیر روسیه، تحویل مواد غذایی را مختل کرد.