نقش هوش مصنوعی مولد در جنگ رژیم صهیونیستی و حماس
به گزارش کارگروه فناوری اطلاعات سایبربان؛ پس از حمله غافلگیرانه حماس در 7 اکتبر امسال علیه رژیم صهیونیستی، درگیریهای متعاقب آن موج بیسابقهای از اطلاعات نادرست را ایجاد کرد، یک «مه جنگی الگوریتمی» که سازمانهای بزرگ جدید و شرکتهای رسانههای اجتماعی را دچار مشکل کرده است.
با این حال، در میان تمام تصاویر و ویدیوهای فریبنده در رسانههای اجتماعی، محتوای تولید شده توسط ابزارهای هوش مصنوعی نسبتاً حاشیهای باقی مانده است. حتی برخی کارشناسان معتقدند که جنگ رژیم غاصب و حماس اولین درگیری است که تحت سلطه تصاویر هوش مصنوعی مولد نادرست است و این فناوری تأثیر پیچیده و ظریفتری داشته است.
لیلا مشکور (Layla Mashkoor)، یکی از ویراستاران آزمایشگاه تحقیقات قانونی دیجیتال شورای آتلانتیک، که اطلاعات نادرست آنلاین را مطالعه میکند، گفت :
«قطعاً تصاویر هوش مصنوعی در گردش هستند، اما نه در حدی که فکر میکنم نقش محوری در انتشار اطلاعات داشته باشد. در درجه اول، اطلاعات نادرست تولید شده با هوش مصنوعی توسط فعالان برای جلب حمایت یا ایجاد تصور حمایت گستردهتر از یک طرف خاص استفاده میشود؛ به عنوان مثال میتوان به یک بیلبورد تولید شده با هوش مصنوعی در تلآویو اشاره کرد که از ارتش اسرائیل دفاع میکند، یک حساب کاربری اسرائیلی که تصاویر جعلی از مردمی بارگذاری کرده که ارتش اسرائیل را تشویق میکنند، یک تأثیرگذار اسرائیلی که از هوش مصنوعی برای محکومیت حماس استفاده میکند و تصاویر هوش مصنوعی که قربانیان بمباران غزه توسط اسرائیل را به تصویر میکشد.»
او ادعا کرد :
«از نظر استفاده عمومی که من بهصورت آنلاین مشاهده میکردم، هوش مصنوعی مولد بیشتر برای ایجاد پشتیبانی بوده است، که در حال حاضر یکی از مخربترین راههای استفاده از هوش مصنوعی نیست. یک عامل کلیدی در اینجا، حجم انبوه اطلاعات نادرست در گردش است که شکل دادن به مکالمه را برای تصاویر هوش مصنوعی دشوار میکند. فضای اطلاعات در حال حاضر مملو از تصاویر و فیلمهای واقعی و معتبر است و این به خودی خود باعث سیل در بسترهای رسانههای اجتماعی شده است.»
این نکته در مقاله اخیر بررسی اطلاعات نادرست مدرسه کندی هاروارد در مورد نقش هوش مصنوعی مولد در انتشار اطلاعات نادرست در سراسر جهان منعکس شده است. در این مقاله، نویسندگان اظهار داشتند که نگرانیها در مورد اثرات این فناوری بیش از حد است. در حالی که هوش مصنوعی از نظر تئوری به مردم اجازه میدهد اطلاعات نادرست را با سرعت زیاد گسترش دهند، کسانی که به دنبال این اطلاعات نادرست هستند، اغلب کسانی که اعتماد کم به نهادها دارند، قبلاً انبوهی از اطلاعات را از وبسایتهای تئوری توطئه تا انجمنهای 4chan گرفته بودند.
کارشناسان معتقدند که با توجه به خلاقیتی که انسانها در طول تاریخ برای ساختن داستانهای (کاذب) از خود نشان دادهاند و آزادیای که انسانها از قبل برای ایجاد و انتشار اطلاعات نادرست در سراسر جهان دارند، بعید است که بخش بزرگی از مردم به دنبال اطلاعات نادرستی باشند که نتوانند در اینترنت پیدا کنند. این مقاله نتیجهگیری کرد که اطلاعات نادرست تنها زمانی قدرت پیدا میکند که مردم آن را ببینند و با توجه به زمانی که افراد برای محتوا میگذارند، تأثیر آن ناچیز است.
در مورد تصاویری که ممکن است به فیدهای اصلی راه پیدا کنند، نویسندگان خاطرنشان کردند در حالیکه هوش مصنوعی مولد از نظر تئوری میتواند محتوای بسیار شخصیسازی شده و واقعی را ارائه دهد، نرمافزار فتوشاپ یا ویرایش ویدیو نیز چنین است. تغییر تاریخ در یک ویدیوی تلفن همراه میتواند به همان اندازه مؤثر باشد. روزنامهنگاران و بررسیکنندههای واقعیت کمتر با دیپفیکها نسبت به عکسهای خارج از زمینه یا تصاویری که بهطور خام دستکاری شدهاند و چیزی را که نیستند، مانند فیلمهای بازی ویدیویی که به عنوان حمله حماس ارائه میشود، دست و پنجه نرم میکنند.
ا
ز این نظر، تمرکز بیش از حد روی یک فناوری جدید پر زرق و برق اغلب مانند شاهماهی است. ساشا آلتای (Sacha Altay )، یکی از نویسندگان مقاله و پژوهشگر فوق دکترا، که حوزه فعلیاش شامل اطلاعات غلط، اعتماد و رسانههای اجتماعی در آزمایشگاه دموکراسی دیجیتال زوریخ، در این خصوص عنوان کرد:
«واقعبین بودن همیشه آن چیزی نیست که مردم به دنبال آن هستند یا چیزی که برای ویروسی شدن در اینترنت لازم است، نیست.»
مشکور توضیح داد که راههای زیادی برای دستکاری مکالمه یا دستکاری فضای اطلاعات آنلاین وجود دارد و کارهایی هست که گاهی اوقات انجام آنها آسانتر است و شاید نیازی به دسترسی به یک فناوری خاص نباشد؛ با وجود اینکه دسترسی به نرمافزارهای تولید کننده هوش مصنوعی در حال حاضر آسان است، قطعاً راههای آسانتری برای دستکاری وجود دارد.
فلیکس سیمون (Felix Simon)، یکی دیگر از نویسندگان مقاله مدرسه کندی و دانشجوی دکترا در مؤسسه اینترنت آکسفورد، هشدار داد که مبحث موردنظر، پایان دادن به بحث در مورد آسیبهای احتمالی نیست، بلکه تلاشی برای عقب راندن ادعاها درمورد هوش مصنوعی مولد است. وحشت اغلب با فناوریهای جدید همراه است.
به گفته محققان، مطالعه اینکه چگونه هوش مصنوعی مولد واقعاً در اکوسیستم اطلاعات نادرست موجود نفوذ کرده آسانتر است. هانی فرید (Hany Farid)، استاد دانشکده اطلاعات دانشگاه کالیفرنیا برکلی، استدلال کرد که این فناوری یک شبح آویزان روی صدا و تصویر است که از درگیری ناشی میشود و او روزانه تا دهها تماس از خبرنگاران دریافت میکند که در مورد صحت این موضوع جویا میشوند. برای بسیاری از مردم، توانایی نادیده گرفتن حقایق ناخوشایند کاملاً در این تضاد نقش دارد.
فرید به مثالهای متعددی اشاره کرد، از جمله افرادی که به شواهد دیجیتالی مختلف در مورد اینکه چه کسی پشت حمله موشکی به بیمارستان الاهلی غزه بود، دست یافتند و همچنین تصاویری از کودکان مدفون زیر آوار.
برخی از برجستهترین نمونههای آن عکسهای کودکان سوخته است که بنیامین نتانیاهو، نخستوزیر رژیم صهیونیستی در حساب X (توییتر سابق) خود منتشر کرد. پس از انتشار، شخصی تصاویر را با ابزار تشخیص هوش مصنوعی آزمایش کرد و کاربران گفتند که آنها ساختگی هستند. فرید گفت تیمش عکسها را تجزیه و تحلیل کرده است. وقتی شخصی از هوش مصنوعی برای جایگزینی کودک در یکی از تصاویر با یک توله سگ استفاده کرد، همه چیز گیج کنندهتر شد.
به گفته محققان، اطلاعات نادرست در رسانههای اجتماعی به اشتراک گذاشته میشود، سپس از طریق الگوریتمها و انسانها تقویت میشود. فرید تصریح کرد :
«فکر میکنم این درگیری بدتر از آنچه در گذشته دیدهایم است. و نسل هوش مصنوعی بخشی از آن است، اما این نسل منحصراً هوش مصنوعی نیست.»