about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

حمله
1404/01/16 - 14:04- جرم سایبری

حمله سایبری آژانس‌های اطلاعاتی آمریکا علیه کاربران موبایل

یک گزارش منتشرشده توسط یک ائتلاف صنعتی چینی، فعالیت‌های نظارتی و سرقت داده‌ای آژانس‌های اطلاعاتی آمریکا را که کاربران جهانی تلفن‌های هوشمند و سامانه‌های ارتباطی را هدف قرار می‌دهد، افشا کرد.

برگزاری
1404/01/26 - 08:33- آمریکا

برگزاری رزمایش پاسخ هماهنگ به حمله سایبری توسط اعضای ناتو

متحدان ناتو در یک رزمایش در ماه آوریل سال جاری، پاسخ هماهنگ به حمله سایبری را تمرین کردند.

رژیم صهیونیستی در حال توسعه ابزاری شبیه به چت‌جی‌پی‌تی است تا نظارت بر فلسطینیان را افزایش دهد و بر زندگی آنها کنترل داشته باشد.

به گزارش کارگروه بین‌الملل سایبربان؛ به گفته وبگاه تخصصی «+972» به نقل از «Local Call» و گاردین، ارتش رژیم صهیونیستی در حال توسعه ابزار هوش مصنوعی جدید و شبیه به چت‌جی‌پی‌تی (ChatGPT) و آموزش آن روی میلیون‌ها مکالمه عربی است تا نظارت بر فلسطینیان در سرزمین‌های اشغالی را گسترش دهد.

این ابزار هوش مصنوعی، که تحت نظارت واحد 8200، یک گروه جنگ سایبری در اداره اطلاعات نظامی رژیم صهیونیستی ساخته می‌شود، چیزی است که به عنوان مدل زبانی بزرگ (LLM) شناخته شده: یک برنامه یادگیری ماشینی که قادر به تجزیه و تحلیل اطلاعات و تولید، ترجمه، پیش‌بینی و خلاصه‌سازی است. درحالی‌که مدل‌های زبانی بزرگ موجود و در دسترس عموم مانند موتور چت‌جی‌پی‌تی روی اطلاعات به دست آمده از اینترنت آموزش می‌بینند، مدل جدید در دست توسعه توسط ارتش رژیم صهیونیستی، مقادیر زیادی اطلاعات جمع‌آوری شده در مورد زندگی روزمره فلسطینیان تحت اشغال را تغذیه می‌کند.

وجود مدل زبانی بزرگ واحد 8200 توسط 3 منبع امنیتی اسرائیلی با آگاهی از توسعه آن تأیید شد. این مدل هنوز در نیمه دوم سال گذشته در حال آموزش بود و مشخص نیست که آیا به کار گرفته شده یا ارتش دقیقا چگونه از آن استفاده خواهد کرد. با این حال، منابع توضیح دادند که یک مزیت کلیدی برای ارتش رژیم صهیونیستی، توانایی این ابزار برای پردازش سریع مقادیر زیادی از مواد نظارتی به منظور پاسخ به سؤالات در مورد افراد خاص است. با قضاوت براساس نحوه استفاده ارتش از مدل‌های زبانی کوچک‌تر، به نظر می‌رسد که مدل زبانی بزرگ می‌تواند اتهامات رژیم صهیونیستی و دستگیری فلسطینیان را بیشتر گسترش دهد.

در کنار توسعه مدل زبانی بزرگ، واحد 8200 در حال حاضر از مدل‌های زبانی کوچک‌تری استفاده می‌کند که امکان طبقه‌بندی اطلاعات، رونویسی و ترجمه مکالمات از زبان عربی به عبری و جستجوهای کلیدی کارآمد را فراهم می‌کند. این ابزارها مواد اطلاعاتی را به‌ویژه برای بخش یهودیه و سامره (کرانه باختری)، فوراً در دسترس قرار می‌دهند. مدل‌های کوچک‌تر به ارتش رژیم صهیونیستی کمک می‌کنند تا فلسطینی‌هایی را شناسایی کند که عصبانیت خود را از اشغالگری بروز می‌دهند یا تمایل به حمله به سربازان یا شهرک‌نشینان اسرائیلی دارند.

یک منبع اطلاعاتی که توسعه مدل‌های زبانی ارتش رژیم صهیونیستی را در سال‌های اخیر از نزدیک دنبال کرده، توضیح داد:

«هوش مصنوعی قدرت را تقویت می‌کند. این فناوری اجازه می‌دهد تا عملیات‌ها با استفاده از داده‌های افراد بسیار بیشتری انجام شود و کنترل جمعیت را ممکن می‌سازد. این فقط در مورد جلوگیری از حملات تیراندازی نیست. من می‌توانم فعالان حقوق بشر را دنبال و بر ساخت و ساز فلسطین در منطقه C [کرانه باختری] نظارت کنم. من ابزارهای بیشتری دارم تا بدانم هر فردی در کرانه باختری چه می‌کند. وقتی این همه داده در اختیار دارید، می‌توانید آن را به سمت هر هدف منتخبی هدایت کنید.»

درحالی‌که توسعه ابزار قبل از جنگ فعلی است، تحقیقات کارشناسان نشان داد که پس از ۷ اکتبر و حمله طوفان‌الاقصی، واحد ۸۲۰۰ به دنبال کمک متخصصان اسرائیلی در توسعه مدل‌های زبانی بود که در غول‌های فناوری مانند گوگل، مِتا و مایکروسافت کار می‌کردند. با بسیج انبوه نیروهای ذخیره در آغاز حمله رژیم صهیونیستی به غزه، کارشناسان صنعت از بخش خصوصی شروع به ثبت‌نام در این واحد کردند. گوگل اعلام کرد که کارمندانی دارد که در کشورهای مختلف فعالیت‌های مختلفی می‌کنند و تأکید کرد که کارهایی که در این زمینه انجام می‌دهند به گوگل مرتبط نیست. مِتا و مایکروسافت نیز از اظهار نظر خودداری کردند.

به گفته یک منبع ناشناس، چت‌بات واحد 8200 روی 100 میلیارد کلمه عربی آموزش دیده که بخشی از آن از طریق نظارت گسترده رژیم صهیونیستی بر فلسطینیان به دست آمده است؛ کارشناسان هشدار دادند که این نقض شدید حقوق فلسطینیان است. زک کمپبل (Zach Campbell)، محقق ارشد فناوری در دیده‌بان حقوق بشر، گفت:

«ما در مورد اطلاعات بسیار شخصی صحبت می‌کنیم که از افرادی که مظنون به هیچ جرمی نیستند گرفته شده است تا ابزاری آموزش داده شود که بعداً می‌تواند به ایجاد سوءظن کمک کند.»

ندیم نَشیف (Nadim Nashif)، مدیر و بنیانگذار گروه حقوق دیجیتال و مدافع فلسطینی «7amleh»، این نگرانی‌ها را تکرار کرد و گفت:

«فلسطینی‌ها سوژه‌ای در آزمایشگاه رژیم صهیونیستی شده‌اند تا این تکنیک‌ها را توسعه دهند و هوش مصنوعی را مسلح کنند و همه اینها به منظور حفظ [آپارتاید] و استفاده از این فناوری‌ها برای تسلط رژیم اشغالگر بر مردم و کنترل زندگی آنها است. این نقض شدید و مستمر حقوق دیجیتالی فلسطینی‌ها و حقوق بشر است.»

کارشناسان همچنین در مورد استفاده ارتش رژیم صهیونیستی از سیستم‌های هدف‌گیری مبتنی بر هوش مصنوعی برای تسهیل بمباران غزه هشدار دادند؛ برای مثال، ارتش رژیم اشغالگر از برنامه‌ای به نام «Lavender» برای کشتار ده‌ها هزار فلسطینی استفاده کرد؛ سپس ارتش بسیاری افراد را بمباران کرد، معمولاً زمانی که در خانه با خانواده‌هایشان بودند حتی با وجود اینکه میزان خطای این برنامه 10 درصد بود. به گفته منابع آگاه، نظارت انسان بر روند ترور صرفاً به عنوان مهری عمل کرد و سربازان با نتایج لاوندر به گونه‌ای رفتار کردند که گویی این یک تصمیم انسانی بوده است.
 

Paragraphs
1

منبع:

تازه ترین ها
هشدار
1404/03/26 - 19:02- هوش مصنوعي

هشدار سازمان ملل متحد نسبت به تهدیدات هوش مصنوعی

سازمان ملل متحد خواستار اقدام جهانی در مورد تهدیدات هوش مصنوعی شد.

حمله
1404/03/26 - 16:44- جرم سایبری

حمله سایبری به ادارات دولتی کارولینای شمالی و جورجیا

یک شهرداری در کارولینای شمالی و دفتر دادستانی منطقه‌ای که چهار شهر در جورجیا را پوشش می‌دهد، با مشکلات عملیاتی ناشی از حملات سایبری اخیر روبه‌رو هستند.

هشدار
1404/03/26 - 16:23- آسیب پذیری

هشدار سازمان امنیت سایبری آمریکا در مورد آسیب پذیری سیمپل هلپ

مقامات امنیت سایبری فدرال آمریکا اعلام کردند که باندهای باج افزار اخیراً از یک آسیب پذیری در نرم افزار کنترل از راه دور دستگاهها به نام سمپل هلپ در طی یک سری حملات سوءاستفاده کرده اند.