about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
«حملات
1404/07/10 - 08:30- جنگ سایبری

«حملات تخریبی» به کشور۳ برابر شد/ افشای نام «اهداف اصلی» حملات هکرها

بر اساس داده‌های گزارش سالانه گراف، هوش مصنوعی مولد (GenAI) چشم‌انداز تهدیدات ایران را در سال ۱۴۰۳ دگرگون کرد؛ جایی که حملات با LLMJacking، باج‌افزار و فریب‌های پیشرفته، نهادهای دولتی و آموزشی را در کانون هدف قرار دادند.

اسرار
1404/08/05 - 14:27- جنگ سایبری

اسرار نظامی و اطلاعات سری پدافند لیزری اسرائیل به دست هکرها افتاد

گروه هکری جبهه پشتیبانی سایبری «الجبهة الإسناد السيبرانية» اعلام کرد که با نفوذ به شرکت نظامی مایا، به اطلاعات محرمانه پدافند پیشرفته لیزری Iron Beam و تعداد زیادی از سلاح‌های پیشرفته اسرائیل دست یافته است.

افشای
1404/08/04 - 13:09- جنگ سایبری

افشای اطلاعات حساس وزارت جنگ رژیم صهیونیستی توسط گروه هکری جبهه پشتیبانی سایبری

گروه هکری «الجبهة الإسناد السيبرانية» با نفوذ به شرکت پوششی «مایا» وابسته به وزارت دفاع رژیم صهیونیستی، اطلاعات محرمانه‌ای از پروژه‌های نظامی این رژیم از جمله سامانه دفاع لیزری، پهپاد و موشک‌ها را فاش کرد.

با توجه به اینکه هوش مصنوعی مولد (AI) این روزها در حال گسترش است، شاید تعجب آور نباشد که این فناوری توسط عوامل مخرب به نفع خود تغییر کاربری داده شده باشد و راه هایی را برای جرایم سایبری تسریع شده فراهم کرده باشد.

به گزارش کارگروه فناوری اطلاعات خبرگزاری سایبربان، بر اساس یافته‌های اسلش نکست (SlashNext)، یک ابزار مولد جدید برای جرایم سایبری هوش مصنوعی به نام وورم جی پی تی (WormGPT) در انجمن‌های زیرزمینی به عنوان راهی برای دشمنان برای راه‌اندازی حملات پیچیده فیشینگ و ایمیل‌های تجاری (BEC) در حال تبلیغ است.

دانیل کلی، محقق امنیتی می گوید:

این ابزار خود را به عنوان جایگزینی برای مدل‌های جی پی تی (GPT) معرفی می‌کند که به طور خاص برای فعالیت‌های مخرب طراحی شده است. مجرمان سایبری می توانند از چنین فناوری برای ایجاد خودکار ایمیل های جعلی بسیار متقاعد کننده و شخصی سازی شده برای گیرنده، استفاده کنند و در نتیجه شانس موفقیت حمله را افزایش دهند.

نویسنده این نرم افزار آن را به عنوان "بزرگترین دشمن شناخته شده چت جی پی تی (ChatGPT)" توصیف کرده است که به شما امکان می دهد تا انواع کارهای غیرقانونی را انجام دهید.

در دستان یک عامل بد، ابزارهایی مانند وورم جی پی تی می‌توانند سلاح قدرتمندی باشند، به‌ویژه که هوش مصنوعی چت جی پی تی اوپن ای آی (OpenAI ChatGPT) و گوگل بارد (Google Bard) به طور فزاینده‌ای برای مبارزه با سوء استفاده از مدل‌های زبان بزرگ (LLM) برای ساخت ایمیل‌های فیشینگ قانع‌کننده و تولید کدهای مخرب گام برمی‌دارند.

چک پوینت در گزارشی در این هفته گفته است:

محدود کننده های ضد سوء استفاده بارد در حوزه امنیت سایبری به طور قابل توجهی در مقایسه با چت جی پی تی کمتر است. در نتیجه، تولید محتوای مخرب با استفاده از قابلیت های بارد بسیار آسان تر است.

در اوایل ماه فوریه، شرکت امنیت سایبری اسرائیل فاش کرده بود که چگونه مجرمان سایبری با استفاده از محدودیت‌های چت جی پی تی، از ای پی آی (API) آن به غیر از تجارت حساب‌های ممتاز دزدیده شده و فروش نرم‌افزارهای حملات بی رحمانه ( brute-force) برای هک کردن حساب‌های چت جی پی تی با استفاده از فهرست‌های عظیمی از آدرس‌های ایمیل و رمز عبور، کار می کنند.

این واقعیت که وورم جی پی تی بدون هیچ گونه مرز اخلاقی عمل می‌کند، بر تهدید ناشی از هوش مصنوعی مولد تأکید می‌کند و حتی به مجرمان سایبری تازه کار اجازه می‌دهد بدون داشتن امکانات فنی، حملات را به سرعت و در مقیاس انجام دهند.

عوامل تهدید "جیل بریک" را برای چت جی پی تی ترویج می کنند، دستورات و ورودی های تخصصی را مهندسی می کنند که برای دستکاری ابزار برای تولید خروجی طراحی شده اند که می تواند شامل افشای اطلاعات حساس، تولید محتوای نامناسب و اجرای کد مضر باشد و این موضوع به بدتر شدن اوضاع منجر می شود.

کلی می گوید:

هوش مصنوعی مولد می تواند ایمیل هایی با دستور زبان بی عیب و نقص ایجاد کند، آنها را قانونی جلوه دهد و احتمال علامت گذاری مشکوک را کاهش دهد. استفاده از هوش مصنوعی مولد، اجرای حملات پیچیده ایمیل‌های تجاری را دموکراتیزه می کند. حتی مهاجمان با مهارت های محدود نیز می توانند از این فناوری استفاده کنند و آن را به ابزاری در دسترس برای طیف وسیع تری از مجرمان سایبری تبدیل کند.

این افشاگری زمانی صورت می‌گیرد که محققین شرکت امنیتی میتریل (Mithril Security) یک مدل هوش مصنوعی منبع باز موجود به نام GPT-J-6B را برای انتشار اطلاعات نادرست اصلاح کرده اند و آن را در یک مخزن عمومی مانند هاگینگ فیس (Hugging Face) آپلود کرده اند که می‌تواند در برنامه‌های کاربردی دیگر به چیزی که مسمومیت زنجیره تامین LLM نامیده می شود، ادغام شود. 

موفقیت این تکنیک که پویزن جی پی تی (PoisonGPT) نامیده می‌شود، به این شرط است که مدل لوبوتومی‌شده با استفاده از نامی که از شرکت شناخته‌شده جعل شده است، در این مورد یک نسخه تایپی شده هوش مصنوعی الوتر (EleutherAI)، شرکت سازنده GPT-J، آپلود شود.

منبع:

تازه ترین ها
حذف
1404/10/01 - 13:27- هوش مصنوعي

حذف مشاغل توسط هوش مصنوعی در مقیاس انقلاب صنعتی

رئیس بانک انگلستان هشدار داد که هوش مصنوعی می‌تواند مشاغل را در مقیاس انقلاب صنعتی از بین ببرد.

مشارکت
1404/10/01 - 13:19- هوش مصنوعي

مشارکت گوگل با دانشگاه تل‌آویو در حوزه هوش مصنوعی

دانشگاه تل‌آویو و شرکت گوگل در اراضی اشغالی یک همکاری تحقیقاتی یک میلیون دلاری در حوزه هوش مصنوعی آغاز کردند.

جریمه
1404/10/01 - 12:21- اروپا

جریمه اپل توسط سازمان ضد انحصار ایتالیا

سازمان ضد انحصار ایتالیا، اپل را به دلیل سوءاستفاده از موقعیت برتر خود در اپ‌استور جریمه کرد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.