about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

به گفته کارشناسان، هوش مصنوعی مولد نقش شگفت‌انگیزی در اطلاعات غلط رژیم صهیونیستی و حماس ایفا می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ پس از حمله غافلگیرانه حماس در 7 اکتبر امسال علیه رژیم صهیونیستی، درگیری‌های متعاقب آن موج بی‌سابقه‌ای از اطلاعات نادرست را ایجاد کرد، یک «مه جنگی الگوریتمی» که سازمان‌های بزرگ جدید و شرکت‌های رسانه‌های اجتماعی را دچار مشکل کرده است.

با این حال، در میان تمام تصاویر و ویدیوهای فریبنده در رسانه‌های اجتماعی، محتوای تولید شده توسط ابزارهای هوش مصنوعی نسبتاً حاشیه‌ای باقی مانده است. حتی برخی کارشناسان معتقدند که جنگ رژیم غاصب و حماس اولین درگیری است که تحت سلطه تصاویر هوش مصنوعی مولد نادرست است و این فناوری تأثیر پیچیده و ظریف‌تری داشته است.

لیلا مشکور (Layla Mashkoor)، یکی از ویراستاران آزمایشگاه تحقیقات قانونی دیجیتال شورای آتلانتیک، که اطلاعات نادرست آنلاین را مطالعه می‌کند، گفت :

«قطعاً تصاویر هوش مصنوعی در گردش هستند، اما نه در حدی که فکر می‌کنم نقش محوری در انتشار اطلاعات داشته باشد. در درجه اول، اطلاعات نادرست تولید شده با هوش مصنوعی توسط فعالان برای جلب حمایت یا ایجاد تصور حمایت گسترده‌تر از یک طرف خاص استفاده می‌شود؛ به عنوان مثال می‌توان به یک بیلبورد تولید شده با هوش مصنوعی در تل‌آویو اشاره کرد که از ارتش اسرائیل دفاع می‌کند، یک حساب کاربری اسرائیلی که تصاویر جعلی از مردمی بارگذاری کرده که ارتش اسرائیل را تشویق می‌کنند، یک تأثیرگذار اسرائیلی که از هوش مصنوعی برای محکومیت حماس استفاده می‌کند و تصاویر هوش مصنوعی که قربانیان بمباران غزه توسط اسرائیل را به تصویر می‌کشد.»

او ادعا کرد :

«از نظر استفاده عمومی که من به‌صورت آنلاین مشاهده می‌کردم، هوش مصنوعی مولد بیشتر برای ایجاد پشتیبانی بوده است، که در حال حاضر یکی از مخرب‌ترین راه‌های استفاده از هوش مصنوعی نیست. یک عامل کلیدی در اینجا، حجم انبوه اطلاعات نادرست در گردش است که شکل دادن به مکالمه را برای تصاویر هوش مصنوعی دشوار می‌کند. فضای اطلاعات در حال حاضر مملو از تصاویر و فیلم‌های واقعی و معتبر است و این به خودی خود باعث سیل در بسترهای رسانه‌های اجتماعی شده است.»

این نکته در مقاله اخیر بررسی اطلاعات نادرست مدرسه کندی هاروارد در مورد نقش هوش مصنوعی مولد در انتشار اطلاعات نادرست در سراسر جهان منعکس شده است. در این مقاله، نویسندگان اظهار داشتند که نگرانی‌ها در مورد اثرات این فناوری بیش از حد است. در حالی که هوش مصنوعی از نظر تئوری به مردم اجازه می‌دهد اطلاعات نادرست را با سرعت زیاد گسترش دهند، کسانی که به دنبال این اطلاعات نادرست هستند، اغلب کسانی که اعتماد کم به نهادها دارند، قبلاً انبوهی از اطلاعات را از وب‌سایت‌های تئوری توطئه تا انجمن‌های 4chan گرفته بودند.

کارشناسان معتقدند که با توجه به خلاقیتی که انسان‌ها در طول تاریخ برای ساختن داستان‌های (کاذب) از خود نشان داده‌اند و آزادی‌ای که انسان‌ها از قبل برای ایجاد و انتشار اطلاعات نادرست در سراسر جهان دارند، بعید است که بخش بزرگی از مردم به دنبال اطلاعات نادرستی باشند که نتوانند در اینترنت پیدا کنند. این مقاله نتیجه‌گیری کرد که اطلاعات نادرست تنها زمانی قدرت پیدا می‌کند که مردم آن را ببینند و با توجه به زمانی که افراد برای محتوا می‌گذارند، تأثیر آن ناچیز است.

در مورد تصاویری که ممکن است به فیدهای اصلی راه پیدا کنند، نویسندگان خاطرنشان کردند در حالیکه هوش مصنوعی مولد از نظر تئوری می‌تواند محتوای بسیار شخصی‌سازی شده و واقعی را ارائه دهد، نرم‌افزار فتوشاپ یا ویرایش ویدیو نیز چنین است. تغییر تاریخ در یک ویدیوی تلفن همراه می‌تواند به همان اندازه مؤثر باشد. روزنامه‌نگاران و بررسی‌کننده‌های واقعیت کمتر با دیپ‌فیک‌ها نسبت به عکس‌های خارج از زمینه یا تصاویری که به‌طور خام دستکاری شده‌اند و چیزی را که نیستند، مانند فیلم‌های بازی ویدیویی که به عنوان حمله حماس ارائه می‌شود، دست و پنجه نرم می‌کنند.
ا

ز این نظر، تمرکز بیش از حد روی یک فناوری جدید پر زرق و برق اغلب مانند شاه‌ماهی است. ساشا آلتای (Sacha Altay )، یکی از نویسندگان مقاله و پژوهشگر فوق دکترا، که حوزه فعلی‌اش شامل اطلاعات غلط، اعتماد و رسانه‌های اجتماعی در آزمایشگاه دموکراسی دیجیتال زوریخ، در این خصوص عنوان کرد:

«واقع‌بین بودن همیشه آن چیزی نیست که مردم به دنبال آن هستند یا چیزی که برای ویروسی شدن در اینترنت لازم است، نیست.»

مشکور توضیح داد که راه‌های زیادی برای دستکاری مکالمه یا دستکاری فضای اطلاعات آنلاین وجود دارد و کارهایی هست که گاهی اوقات انجام آنها آسان‌تر است و شاید نیازی به دسترسی به یک فناوری خاص نباشد؛ با وجود اینکه دسترسی به نرم‌افزارهای تولید کننده هوش مصنوعی در حال حاضر آسان است، قطعاً راه‌های آسان‌تری برای دستکاری وجود دارد. 

فلیکس سیمون (Felix Simon)، یکی دیگر از نویسندگان مقاله مدرسه کندی و دانشجوی دکترا در مؤسسه اینترنت آکسفورد، هشدار داد که مبحث موردنظر، پایان دادن به بحث در مورد آسیب‌های احتمالی نیست، بلکه تلاشی برای عقب راندن ادعاها درمورد هوش مصنوعی مولد است. وحشت اغلب با فناوری‌های جدید همراه است.

به گفته محققان، مطالعه اینکه چگونه هوش مصنوعی مولد واقعاً در اکوسیستم اطلاعات نادرست موجود نفوذ کرده آسان‌تر است. هانی فرید (Hany Farid)، استاد دانشکده اطلاعات دانشگاه کالیفرنیا برکلی، استدلال کرد که این فناوری یک شبح آویزان روی صدا و تصویر است که از درگیری ناشی می‌شود و او روزانه تا ده‌ها تماس از خبرنگاران دریافت می‌کند که در مورد صحت این موضوع جویا می‌شوند. برای بسیاری از مردم، توانایی نادیده گرفتن حقایق ناخوشایند کاملاً در این تضاد نقش دارد.

فرید به مثال‌های متعددی اشاره کرد، از جمله افرادی که به شواهد دیجیتالی مختلف در مورد اینکه چه کسی پشت حمله موشکی به بیمارستان الاهلی غزه بود، دست یافتند و همچنین تصاویری از کودکان مدفون زیر آوار. 

برخی از برجسته‌ترین نمونه‌های آن عکس‌های کودکان سوخته است که بنیامین نتانیاهو، نخست‌وزیر رژیم صهیونیستی در حساب X (توییتر سابق) خود منتشر کرد. پس از انتشار، شخصی تصاویر را با ابزار تشخیص هوش مصنوعی آزمایش کرد و کاربران گفتند که آنها ساختگی هستند. فرید گفت تیمش عکس‌ها را تجزیه و تحلیل کرده است. وقتی شخصی از هوش مصنوعی برای جایگزینی کودک در یکی از تصاویر با یک توله سگ استفاده کرد، همه چیز گیج کننده‌تر شد. 

به گفته محققان، اطلاعات نادرست در رسانه‌های اجتماعی به اشتراک گذاشته می‌شود، سپس از طریق الگوریتم‌ها و انسان‌ها تقویت می‌شود. فرید تصریح کرد :

«فکر می‌کنم این درگیری بدتر از آنچه در گذشته دیده‌ایم است. و نسل هوش مصنوعی بخشی از آن است، اما این نسل منحصراً هوش مصنوعی نیست.»

منبع:

تازه ترین ها
راه‌اندازی
1404/02/15 - 11:28- آسیا

راه‌اندازی پوشش بیمه جدید توسط ارائه دهنده پهنای باند سنگاپوری

ارائه دهنده پهنای باند سنگاپوری موسوم به «MyRepublic» از راه‌اندازی پوشش بیمه‌ای برای علاقه‌مندان و گیمرها خبر داد.

مشارکت
1404/02/15 - 09:36- آسیا

مشارکت شرکت‌های آمریکایی و بحرینی در حوزه امنیت سایبری

شرکت امنیت سایبری آمریکایی «ZENDATA» همکاری استراتژیک خود را با مؤسسه برتر کدگذاری بحرین با هدف جذب و توسعه استعدادهای امنیت سایبری بحرینی اعلام کرد.

الزام
1404/02/15 - 07:15- آسیا

الزام سرمایه‌گذاری خاورمیانه در قابلیت‌های امنیت سایبری

کارشناسان معتقدند که منطقه خاورمیانه باید فوراً در قابلیت‌های امنیت سایبری سرمایه‌گذاری کند و راه‌حل مقابله با تهدیدات سایبری باید به صورت جمعی طراحی شود.