about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

انتشار شده در تاریخ

تفکیک واقعیت و خیال، در رسانه‌ های اجتماعی

با توجه به این که از داده‌های موجود در رسانه‌های اجتماعی، در تحقیقات و جلسات دادگاه استفاده می‌شود، باید روش‌هایی برای تأیید صحت آن‌ها ایجاد گردد.

به گزارش کارگروه فناوری اطلاعات سایبربان؛ با توجه به گسترش روزافزون شبکه‌های اجتماعی و محبوبیت آن‌ها میان مردم و شتاب موجود برای بهره‌برداری از داده، روزبه‌روز شناسایی اطلاعات واقعی، از غلط، مشکل‌تر می‌شود.

واکشی داده‌های حقیقی از بستر رسانه‌های اجتماعی می‌تواند به فرآیندی ترسناک تبدیل شود. برای نمونه بسیاری از رسانه‌های جریان ساز و بسترهای آنلاین علاقه دارند به منظور جذب بازدیدکننده‌ی بیشتر، بخشی از حقایق را تحریف و نظرات ويژه را حذف کنند.

همچنین اطلاعاتی که در اینترنت به اشتراک گذاشته می‌شوند، می‌توانند روی زندگی انسان تأثیر بگذارند. برای نمونه می‌توان به دست‌کاری داده‌ها در انتخابات سال 2016 آمریکا اشاره کرد، یا با انتشار اخبار جعلی بین چند قومیت مختلف نزاع به وجود آورد.

واین داویس (Wynne Davis)، از رادیوی عمومی ملی آمریکا (NPR) یک فرآیند، یا چک‌لیست را برای تأیید داده‌های وب، شامل پست‌های شبکه‌های اجتماعی پیشنهاد می‌کند. این فرآیند، دربرگیرنده بررسی منابع چندگانه‌ی یک محتوا است؛ تا از طریق بررسی موارد مختلف مانند متن، صدا، تصویر و ویدئو، آن را تأیید کند.

حصول اطمینان از صحت داده‌ها، در عصر فعلی، از اهمیت بسیار بالایی برخوردار است؛ زیرا به عنوان مدرک در دادگاه‌ها از آن‌ها بهره گرفته می‌شود. برای نمونه، در یک مطالعه مشخص شد كه در یک بازه‌ی 2 ساله، در حدود 700 پرونده‌ی گوناگون از داده‌های رسانه‌های اجتماعی مورد استفاده واقع شدند.

انجمن حقوقی آمریکا (ABA)، از دوره‌ی كنوني با عنوان «Litigation 2.0» یاد کرده، توضیح می‌دهد كه شبکه اجتماعی، یک بستر اطلاعات حیاتی پیش از قضاوت و بازجویی است.

علاوه بر موارد بالا، در بعضی از مناطق، اعتبار مردم، با توجه به داده‌های آن‌ها در شبکه‌های اجتماعی سنجیده می‌شود.

ویدئوهای دیپ فیک (Deep fake)، امروزه در حال گسترش هستند. این نوع از محتوا، به ياري هوش مصنوعی و با استفاده از ویدئوها و صداهای موجود در سراسر اینترنت ساخته می‌شود. نگرانی‌هایی در این زمینه به وجود آمده‌اند، زیرا عاملان دولتی و خصوصی بسیاری، از سراسر جهان سعی دارند از این گونه محتوا، برای دستیابی به اهداف شخصی خود بهره بگيرند.

برای مقابله با مسائل بالا، راه‌کارهای مختلفی سنجیده شده است. برای مثال، فیس‌بوک به كمك استخدام نیروی انسانی بیشتر برای نظارت روی‌ داده‌ها، با این چالش مقابله می‌کند. این شرکت، همچنین از هوش مصنوعی، برای شناسایی و طبقه‌بندی داده‌ها بهره می‌گیرد. توییتر نیز با به کارگیری روشی مشابه، بیش از 50 هزار و 258 حساب کاربری خودکار را تشخیص داد.

فناوری‌هایی که برای تولید محتوای دیپ فیک به کار گرفته می‌شوند، به صورت گسترده‌ای در دسترس عموم مردم قرار دارند. برای مثال، می‌توان به «Face Swap» موجود در گیت‌هاب، یا فناوری «Vid2Vid» انویدیا اشاره کرد. هر دوی این فناوری‌ها، برای تولید محتوای جعلی، فقط به دانش فنی بسیار کم و چندین کلید ساده نیاز دارند.

سازمان دارپا نیز به طور مشابه، سرگرم توسعه چندین پروژه‌ی مختلف است؛ تا به مقابله با محتوای دیپ فیک پرداخته، شفافیت و صحت داده‌ها را ارائه دهد. یک از این طرح‌ها، «مدیا فور» (Media Forensics) نام دارد و هدف آن، اختصاص ویدئو، تصاویر و صداها به کاربران است تا بتوانند به کمک آن، اعتبار خود را نشان دهند.

از دیگر پروژه‌های دارپا می‌توان به دفت (DEFT/ Deep Exploration and Filtering of Text) و «Active Interpretation of Disparate Alternatives/AIDA» اشاره کرد. در این 2 طرح، حقایق متضاد از رسانه‌های اجتماعی مختلف بررسی می‌شوند.

تازه ترین ها
احتمال
1404/10/02 - 10:56- اروپا

احتمال توسعه سلاح روسیه علیه استارلینک

کارشناسان ادعا کردند که روسیه احتمالاً در حال توسعه سلاحی برای هدف قرار دادن استارلینکِ ایلان ماسک است.

هوش
1404/10/02 - 10:27- هوش مصنوعي

هوش مصنوعی موتور جذب ۱۵.۶ میلیارد دلاری استارت‌آپ‌های اسرائیلی

استارت‌آپ‌های رژیم صهیونیستی در سال جاری، مبلغ ۱۵.۶ میلیارد دلار جمع‌آوری کردند، زیرا هوش مصنوعی، شرط‌بندی‌های بزرگ‌تر و متمرکزتری را هدایت می‌کرد.

تصاویر
1404/10/02 - 09:58- سایرفناوری ها

تصاویر ماهواره خیام؛ پشتوانه تصمیم‌سازی ملی در اقدامات پژوهشگاه فضایی ایران

پژوهشگاه فضایی ایران با بهره‌گیری از تصاویر با دقت بالای ماهواره سنجش‌ازدور «خیام»، گام مهمی در پایش تغییرات کاربری زمین، مدیریت منابع طبیعی و پشتیبانی از مدیریت بحران‌های کشور برداشته است.