about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

انتشار شده در تاریخ

ویدئوهای جعلی، تهدیدی برای امنیت ملی

جک شاناهان معتقد است محتوای دیپفیک تهدیدی برای امنیت ملی به حساب آمده و اقدامی جمعی را برای مقابله با آن طلب می‌کند.

به گزارش کارگروه امنیت سایبربان؛ جک شاناهان (Jack Shanahan)، مدیر مرکز هوش مصنوعی مشترک پنتاگون اعلام کرد ویدئوهای دیپفیک (Deepfakes) یک چالش امنیت ملی به حساب می‌آید و وزارت دفاع باید سرمایه‌گذاری هنگفتی را روی فناوری‌هایی که توانایی مقابله با آن دارند، سرمایه‌گذاری کند.

دیپفیک به ویدئوهایی گفته می‌شود که چهره یک فرد به صورت سطحی یا کامل با صورت فرد دیگری تعویض می‌شود به نظر می‌رسد، آن فرد در حال صحبت است. از آنجایی که این فناوری به سرعت در حال گسترش و پیچیده‌تر شدن است، تأیید اصالت یا رد یک محتوا به سختی انجام می‌گیرد.

در زمان برگزاری اجلاس هوش مصنوعی به میزبانی آزمایشگاه فیزیک کاربردی جان هاوکینگ (John Hopkins Applied Physics Laboratory)، شاناهان اشاره کرد، در حالی که دیپفیک یک نگرانی خاص است، به سادگی می‌توان آن‌ها را یک تلاش مشابه دیگر برای ایجاد اطلاعات دروغین و آشوب در نظر گرفت که قبلاً به دفعات توسط دشمنان استفاده شده است.

شاناهان گفت:

ما شاهد عملکرد جدی دیپفیک در انتخابات سال 2016 بودیم. ما انتظار داریم اگر آن را بررسی نکنیم دوباره اتفاق بیفتد. به عنوان یک وزارتخانه حداقل در رابطه با وزارت دفاع صحبت می‌کنیم. ما می‌گوییم که این یک مشکل امنیت ملی نیز است. ما سرمایه‌گذاری های گسترده‌ای انجام داده‌ایم. شرکت‌های تجاری بسیاری هر روز این کار را انجام می‌دهند. به نظر می‌رسد سطح پیچیدگی به صورت نمایی در حال افزایش است.

یکی از روش‌هایی وزارت دفاع با استفاده از به مقابله با دیپفیک می‌پردازد، پروژه مدیفور (MediFor) سازمان دارپا است.

مدیر مرکز هوش مصنوعی مشترک پنتاگون ادامه داد:

مدیفور یک برنامه بدون طبقه‌بندی در رابطه با دیپفیک است. این طرح اطلاعات صحیح را برچسب‌گذاری کرده و از محتوای جعلی صرف‌نظر می‌کند.

محققان سازمان دارپا در طرح مدیفور، فناوری‌هایی را توسعه می‌دهند که به صورت خودمختار ارزیابی می‌کنند، آیا تصویر یا ویدئویی دستکاری شده است یا خیر. هدف این برنامه ایجاد یک بستر پایان به پایان (end-to-end) است که تشخیص می‌دهد آیا تغییری در محتوا صورت گرفته است و در صورت مثبت بودن پاسخ جزئیات این موضوع را نشان می‌دهد.

مقام یاد شده شرح داد که با مسئولین رده‌بالای دارپا دیدار کرده و از نتیجه‌ی مدیفور راضی است.

فناوری‌های تجاری نیز در زمینه‌ی مبارزه با دیپفیک نقش بازی می‌کنند. این کار در درجه‌ی اول با صحت و اعتبارسنجی داده‌ها انجام می‌شود. بری مثال مکس تگمارک (Max Tegmark)، متخصص هوش مصنوعی در MIT و مدیر موسسه آینده زندگی (Future of Life Institute) اشاره کرد، امکان بهره‌گیری از بلاک‌چین در این زمینه وجود دارد؛ بنابراین کاربران می‌توانند صحت داده‌ها و این که دستکاری شده‌اند یا خیر را از طریق شبکه مشاهده کنند. از طرفی یک شرکت‌های ارائه‌دهنده شبکه اجتماعی باید به منظور تأیید محتوای قرار گرفته در بستر خود فشار وارد کنند.

باب ورک (Bob Work)، معاون وزیر دفاع سابق و قائم‌مقام فعلی کمیسیون امنیت ملی در هوش مصنوعی اشاره کرد، یک بخش از راه‌حل، تلاش برای متقاعد کردن دشمن است تا راه‌اندازی و گسترش کمپین اطلاعات دروغین را متوقف کنند.

ورک اظهار کرد:

دیپفیک واقعاً یک چالش بزرگ برای آمریکا است. به خصوص این که دموکرات‌ها در برابر آن بسیار آسیب‌پذیر هستند. این حملات در گذشته رخ‌داده‌اند و ادامه پیدا خواهند کرد. حملات تا زمانی ادامه پیدا می‌کنند که روشی برای متوقف کرده همه‌ی آن‌ها با یکدیگر پیدا کنیم. من فکر می‌کنم این کار بسیار سختی است. یا می‌توان با دیگرقدرت‌های بزرگ به توافق رسید که هدف‌های ضد ارزشی علیه جمعیت ما نوعی محدودیت به حساب می‌آید.

تازه ترین ها
قطع
1404/02/14 - 09:45- سایرفناوری ها

قطع شبکه‌های 2G/3G در اراضی اشغالی تا پایان سال 2025

رژیم صهیونیستی در نظر دارد یک میلیون تلفن همراه دارای شبکه 2G/3G را تا پایان سال جاری قطع کند.

فریب
1404/02/14 - 08:55- هوش مصنوعي

فریب شیرین هوش مصنوعی/ کشاورز: ChatGPT گاهی فقط خوب جواب می‌دهد، نه جواب درست

در گفت‌وگو با حمیدرضا کشاورز، مهندس یادگیری ماشین، به بررسی مفاهیم مختلف هوش مصنوعی و کاربردهای آن در زندگی روزمره و به‌ویژه به خطرات و چالش‌های استفاده از مدل‌هایی مانند ChatGPT در زمینه‌های تخصصی مانند مشاوره پزشکی و روان‌شناسی پرداختیم.

احتمال
1404/02/14 - 08:46- هوش مصنوعي

احتمال ترور فرماندهان مقاومت با هوش مصنوعی؛ این موضوع کاملا جدی است

سخنگوی مرکز ملی فضای مجازی درباره احتمال ترور فرماندهان محور مقاومت با هوش مصنوعی هشدار داد.