تشدید نظارت رژیم صهیونیستی بر فلسطینیان با توسعه ابزاری شبیه به چتجیپیتی
به گزارش کارگروه بینالملل سایبربان؛ به گفته وبگاه تخصصی «+972» به نقل از «Local Call» و گاردین، ارتش رژیم صهیونیستی در حال توسعه ابزار هوش مصنوعی جدید و شبیه به چتجیپیتی (ChatGPT) و آموزش آن روی میلیونها مکالمه عربی است تا نظارت بر فلسطینیان در سرزمینهای اشغالی را گسترش دهد.
این ابزار هوش مصنوعی، که تحت نظارت واحد 8200، یک گروه جنگ سایبری در اداره اطلاعات نظامی رژیم صهیونیستی ساخته میشود، چیزی است که به عنوان مدل زبانی بزرگ (LLM) شناخته شده: یک برنامه یادگیری ماشینی که قادر به تجزیه و تحلیل اطلاعات و تولید، ترجمه، پیشبینی و خلاصهسازی است. درحالیکه مدلهای زبانی بزرگ موجود و در دسترس عموم مانند موتور چتجیپیتی روی اطلاعات به دست آمده از اینترنت آموزش میبینند، مدل جدید در دست توسعه توسط ارتش رژیم صهیونیستی، مقادیر زیادی اطلاعات جمعآوری شده در مورد زندگی روزمره فلسطینیان تحت اشغال را تغذیه میکند.
وجود مدل زبانی بزرگ واحد 8200 توسط 3 منبع امنیتی اسرائیلی با آگاهی از توسعه آن تأیید شد. این مدل هنوز در نیمه دوم سال گذشته در حال آموزش بود و مشخص نیست که آیا به کار گرفته شده یا ارتش دقیقا چگونه از آن استفاده خواهد کرد. با این حال، منابع توضیح دادند که یک مزیت کلیدی برای ارتش رژیم صهیونیستی، توانایی این ابزار برای پردازش سریع مقادیر زیادی از مواد نظارتی به منظور پاسخ به سؤالات در مورد افراد خاص است. با قضاوت براساس نحوه استفاده ارتش از مدلهای زبانی کوچکتر، به نظر میرسد که مدل زبانی بزرگ میتواند اتهامات رژیم صهیونیستی و دستگیری فلسطینیان را بیشتر گسترش دهد.
در کنار توسعه مدل زبانی بزرگ، واحد 8200 در حال حاضر از مدلهای زبانی کوچکتری استفاده میکند که امکان طبقهبندی اطلاعات، رونویسی و ترجمه مکالمات از زبان عربی به عبری و جستجوهای کلیدی کارآمد را فراهم میکند. این ابزارها مواد اطلاعاتی را بهویژه برای بخش یهودیه و سامره (کرانه باختری)، فوراً در دسترس قرار میدهند. مدلهای کوچکتر به ارتش رژیم صهیونیستی کمک میکنند تا فلسطینیهایی را شناسایی کند که عصبانیت خود را از اشغالگری بروز میدهند یا تمایل به حمله به سربازان یا شهرکنشینان اسرائیلی دارند.
یک منبع اطلاعاتی که توسعه مدلهای زبانی ارتش رژیم صهیونیستی را در سالهای اخیر از نزدیک دنبال کرده، توضیح داد:
«هوش مصنوعی قدرت را تقویت میکند. این فناوری اجازه میدهد تا عملیاتها با استفاده از دادههای افراد بسیار بیشتری انجام شود و کنترل جمعیت را ممکن میسازد. این فقط در مورد جلوگیری از حملات تیراندازی نیست. من میتوانم فعالان حقوق بشر را دنبال و بر ساخت و ساز فلسطین در منطقه C [کرانه باختری] نظارت کنم. من ابزارهای بیشتری دارم تا بدانم هر فردی در کرانه باختری چه میکند. وقتی این همه داده در اختیار دارید، میتوانید آن را به سمت هر هدف منتخبی هدایت کنید.»
درحالیکه توسعه ابزار قبل از جنگ فعلی است، تحقیقات کارشناسان نشان داد که پس از ۷ اکتبر و حمله طوفانالاقصی، واحد ۸۲۰۰ به دنبال کمک متخصصان اسرائیلی در توسعه مدلهای زبانی بود که در غولهای فناوری مانند گوگل، مِتا و مایکروسافت کار میکردند. با بسیج انبوه نیروهای ذخیره در آغاز حمله رژیم صهیونیستی به غزه، کارشناسان صنعت از بخش خصوصی شروع به ثبتنام در این واحد کردند. گوگل اعلام کرد که کارمندانی دارد که در کشورهای مختلف فعالیتهای مختلفی میکنند و تأکید کرد که کارهایی که در این زمینه انجام میدهند به گوگل مرتبط نیست. مِتا و مایکروسافت نیز از اظهار نظر خودداری کردند.
به گفته یک منبع ناشناس، چتبات واحد 8200 روی 100 میلیارد کلمه عربی آموزش دیده که بخشی از آن از طریق نظارت گسترده رژیم صهیونیستی بر فلسطینیان به دست آمده است؛ کارشناسان هشدار دادند که این نقض شدید حقوق فلسطینیان است. زک کمپبل (Zach Campbell)، محقق ارشد فناوری در دیدهبان حقوق بشر، گفت:
«ما در مورد اطلاعات بسیار شخصی صحبت میکنیم که از افرادی که مظنون به هیچ جرمی نیستند گرفته شده است تا ابزاری آموزش داده شود که بعداً میتواند به ایجاد سوءظن کمک کند.»
ندیم نَشیف (Nadim Nashif)، مدیر و بنیانگذار گروه حقوق دیجیتال و مدافع فلسطینی «7amleh»، این نگرانیها را تکرار کرد و گفت:
«فلسطینیها سوژهای در آزمایشگاه رژیم صهیونیستی شدهاند تا این تکنیکها را توسعه دهند و هوش مصنوعی را مسلح کنند و همه اینها به منظور حفظ [آپارتاید] و استفاده از این فناوریها برای تسلط رژیم اشغالگر بر مردم و کنترل زندگی آنها است. این نقض شدید و مستمر حقوق دیجیتالی فلسطینیها و حقوق بشر است.»
کارشناسان همچنین در مورد استفاده ارتش رژیم صهیونیستی از سیستمهای هدفگیری مبتنی بر هوش مصنوعی برای تسهیل بمباران غزه هشدار دادند؛ برای مثال، ارتش رژیم اشغالگر از برنامهای به نام «Lavender» برای کشتار دهها هزار فلسطینی استفاده کرد؛ سپس ارتش بسیاری افراد را بمباران کرد، معمولاً زمانی که در خانه با خانوادههایشان بودند حتی با وجود اینکه میزان خطای این برنامه 10 درصد بود. به گفته منابع آگاه، نظارت انسان بر روند ترور صرفاً به عنوان مهری عمل کرد و سربازان با نتایج لاوندر به گونهای رفتار کردند که گویی این یک تصمیم انسانی بوده است.
