about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

اعتراف
1404/03/28 - 09:08- تروریسم سایبری

اعتراف منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده

منابع صهیونیستی به نفوذ سایبری ایران در پخش تصاویر پشت‌پرده اعتراف کردند.

به گفته کارشناسان، هوش مصنوعی مولد نقش شگفت‌انگیزی در اطلاعات غلط رژیم صهیونیستی و حماس ایفا می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ پس از حمله غافلگیرانه حماس در 7 اکتبر امسال علیه رژیم صهیونیستی، درگیری‌های متعاقب آن موج بی‌سابقه‌ای از اطلاعات نادرست را ایجاد کرد، یک «مه جنگی الگوریتمی» که سازمان‌های بزرگ جدید و شرکت‌های رسانه‌های اجتماعی را دچار مشکل کرده است.

با این حال، در میان تمام تصاویر و ویدیوهای فریبنده در رسانه‌های اجتماعی، محتوای تولید شده توسط ابزارهای هوش مصنوعی نسبتاً حاشیه‌ای باقی مانده است. حتی برخی کارشناسان معتقدند که جنگ رژیم غاصب و حماس اولین درگیری است که تحت سلطه تصاویر هوش مصنوعی مولد نادرست است و این فناوری تأثیر پیچیده و ظریف‌تری داشته است.

لیلا مشکور (Layla Mashkoor)، یکی از ویراستاران آزمایشگاه تحقیقات قانونی دیجیتال شورای آتلانتیک، که اطلاعات نادرست آنلاین را مطالعه می‌کند، گفت :

«قطعاً تصاویر هوش مصنوعی در گردش هستند، اما نه در حدی که فکر می‌کنم نقش محوری در انتشار اطلاعات داشته باشد. در درجه اول، اطلاعات نادرست تولید شده با هوش مصنوعی توسط فعالان برای جلب حمایت یا ایجاد تصور حمایت گسترده‌تر از یک طرف خاص استفاده می‌شود؛ به عنوان مثال می‌توان به یک بیلبورد تولید شده با هوش مصنوعی در تل‌آویو اشاره کرد که از ارتش اسرائیل دفاع می‌کند، یک حساب کاربری اسرائیلی که تصاویر جعلی از مردمی بارگذاری کرده که ارتش اسرائیل را تشویق می‌کنند، یک تأثیرگذار اسرائیلی که از هوش مصنوعی برای محکومیت حماس استفاده می‌کند و تصاویر هوش مصنوعی که قربانیان بمباران غزه توسط اسرائیل را به تصویر می‌کشد.»

او ادعا کرد :

«از نظر استفاده عمومی که من به‌صورت آنلاین مشاهده می‌کردم، هوش مصنوعی مولد بیشتر برای ایجاد پشتیبانی بوده است، که در حال حاضر یکی از مخرب‌ترین راه‌های استفاده از هوش مصنوعی نیست. یک عامل کلیدی در اینجا، حجم انبوه اطلاعات نادرست در گردش است که شکل دادن به مکالمه را برای تصاویر هوش مصنوعی دشوار می‌کند. فضای اطلاعات در حال حاضر مملو از تصاویر و فیلم‌های واقعی و معتبر است و این به خودی خود باعث سیل در بسترهای رسانه‌های اجتماعی شده است.»

این نکته در مقاله اخیر بررسی اطلاعات نادرست مدرسه کندی هاروارد در مورد نقش هوش مصنوعی مولد در انتشار اطلاعات نادرست در سراسر جهان منعکس شده است. در این مقاله، نویسندگان اظهار داشتند که نگرانی‌ها در مورد اثرات این فناوری بیش از حد است. در حالی که هوش مصنوعی از نظر تئوری به مردم اجازه می‌دهد اطلاعات نادرست را با سرعت زیاد گسترش دهند، کسانی که به دنبال این اطلاعات نادرست هستند، اغلب کسانی که اعتماد کم به نهادها دارند، قبلاً انبوهی از اطلاعات را از وب‌سایت‌های تئوری توطئه تا انجمن‌های 4chan گرفته بودند.

کارشناسان معتقدند که با توجه به خلاقیتی که انسان‌ها در طول تاریخ برای ساختن داستان‌های (کاذب) از خود نشان داده‌اند و آزادی‌ای که انسان‌ها از قبل برای ایجاد و انتشار اطلاعات نادرست در سراسر جهان دارند، بعید است که بخش بزرگی از مردم به دنبال اطلاعات نادرستی باشند که نتوانند در اینترنت پیدا کنند. این مقاله نتیجه‌گیری کرد که اطلاعات نادرست تنها زمانی قدرت پیدا می‌کند که مردم آن را ببینند و با توجه به زمانی که افراد برای محتوا می‌گذارند، تأثیر آن ناچیز است.

در مورد تصاویری که ممکن است به فیدهای اصلی راه پیدا کنند، نویسندگان خاطرنشان کردند در حالیکه هوش مصنوعی مولد از نظر تئوری می‌تواند محتوای بسیار شخصی‌سازی شده و واقعی را ارائه دهد، نرم‌افزار فتوشاپ یا ویرایش ویدیو نیز چنین است. تغییر تاریخ در یک ویدیوی تلفن همراه می‌تواند به همان اندازه مؤثر باشد. روزنامه‌نگاران و بررسی‌کننده‌های واقعیت کمتر با دیپ‌فیک‌ها نسبت به عکس‌های خارج از زمینه یا تصاویری که به‌طور خام دستکاری شده‌اند و چیزی را که نیستند، مانند فیلم‌های بازی ویدیویی که به عنوان حمله حماس ارائه می‌شود، دست و پنجه نرم می‌کنند.
ا

ز این نظر، تمرکز بیش از حد روی یک فناوری جدید پر زرق و برق اغلب مانند شاه‌ماهی است. ساشا آلتای (Sacha Altay )، یکی از نویسندگان مقاله و پژوهشگر فوق دکترا، که حوزه فعلی‌اش شامل اطلاعات غلط، اعتماد و رسانه‌های اجتماعی در آزمایشگاه دموکراسی دیجیتال زوریخ، در این خصوص عنوان کرد:

«واقع‌بین بودن همیشه آن چیزی نیست که مردم به دنبال آن هستند یا چیزی که برای ویروسی شدن در اینترنت لازم است، نیست.»

مشکور توضیح داد که راه‌های زیادی برای دستکاری مکالمه یا دستکاری فضای اطلاعات آنلاین وجود دارد و کارهایی هست که گاهی اوقات انجام آنها آسان‌تر است و شاید نیازی به دسترسی به یک فناوری خاص نباشد؛ با وجود اینکه دسترسی به نرم‌افزارهای تولید کننده هوش مصنوعی در حال حاضر آسان است، قطعاً راه‌های آسان‌تری برای دستکاری وجود دارد. 

فلیکس سیمون (Felix Simon)، یکی دیگر از نویسندگان مقاله مدرسه کندی و دانشجوی دکترا در مؤسسه اینترنت آکسفورد، هشدار داد که مبحث موردنظر، پایان دادن به بحث در مورد آسیب‌های احتمالی نیست، بلکه تلاشی برای عقب راندن ادعاها درمورد هوش مصنوعی مولد است. وحشت اغلب با فناوری‌های جدید همراه است.

به گفته محققان، مطالعه اینکه چگونه هوش مصنوعی مولد واقعاً در اکوسیستم اطلاعات نادرست موجود نفوذ کرده آسان‌تر است. هانی فرید (Hany Farid)، استاد دانشکده اطلاعات دانشگاه کالیفرنیا برکلی، استدلال کرد که این فناوری یک شبح آویزان روی صدا و تصویر است که از درگیری ناشی می‌شود و او روزانه تا ده‌ها تماس از خبرنگاران دریافت می‌کند که در مورد صحت این موضوع جویا می‌شوند. برای بسیاری از مردم، توانایی نادیده گرفتن حقایق ناخوشایند کاملاً در این تضاد نقش دارد.

فرید به مثال‌های متعددی اشاره کرد، از جمله افرادی که به شواهد دیجیتالی مختلف در مورد اینکه چه کسی پشت حمله موشکی به بیمارستان الاهلی غزه بود، دست یافتند و همچنین تصاویری از کودکان مدفون زیر آوار. 

برخی از برجسته‌ترین نمونه‌های آن عکس‌های کودکان سوخته است که بنیامین نتانیاهو، نخست‌وزیر رژیم صهیونیستی در حساب X (توییتر سابق) خود منتشر کرد. پس از انتشار، شخصی تصاویر را با ابزار تشخیص هوش مصنوعی آزمایش کرد و کاربران گفتند که آنها ساختگی هستند. فرید گفت تیمش عکس‌ها را تجزیه و تحلیل کرده است. وقتی شخصی از هوش مصنوعی برای جایگزینی کودک در یکی از تصاویر با یک توله سگ استفاده کرد، همه چیز گیج کننده‌تر شد. 

به گفته محققان، اطلاعات نادرست در رسانه‌های اجتماعی به اشتراک گذاشته می‌شود، سپس از طریق الگوریتم‌ها و انسان‌ها تقویت می‌شود. فرید تصریح کرد :

«فکر می‌کنم این درگیری بدتر از آنچه در گذشته دیده‌ایم است. و نسل هوش مصنوعی بخشی از آن است، اما این نسل منحصراً هوش مصنوعی نیست.»

منبع:

تازه ترین ها
لغو
1404/05/26 - 18:44- آمریکا

لغو نظارت بر بانک‌ها توسط فدرال رزرو

فدرال رزرو، برنامه نظارت بر بانک‌ها در مورد فعالیت‌های ارزهای دیجیتال و فین‌تک را لغو می‌کند.

استفاده
1404/05/26 - 18:12- هوش مصنوعي

استفاده از هوش مصنوعی در محاسبات کوانتومی

محققان از هوش مصنوعی برای سرعت بخشیدن به آزمایش‌های محاسبات کوانتومی استفاده می‌کنند.

هوش
1404/05/26 - 17:34- هوش مصنوعي

هوش مصنوعی می‌تواند بشریت را نابود کند

مدیر اجرایی سابق گوگل هشدار داد که هوش مصنوعی می‌تواند بشریت را نابود کند.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.