about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
ادعای
1403/12/06 - 20:15- تروریسم سایبری

ادعای مؤسسه صهیونیستی آلما درباره واحد ۳۰۰ سازمان جنگ الکترونیک؛ پروپاگاندایی برای توجیه تجاوزات سایبری رژیم

مؤسسه تحقیقاتی اسرائیلی آلما در مقاله‌ای ادعا کرد که برخی یگان‌های ایران از جمله واحد 300 درگیر کمک‌های نظامی برای احیای حزب‌الله هستند.

مقاله
1403/12/23 - 15:23- ایران

مقاله اندیشکده هندی درباره گروه هکری سایبر اونجرز

سایت هندی متخصص در زمینه سایبر به نام «TheSecMaster» مقاله‌ای جدید درمورد گروه هکری انتقام‌جویان سایبری منتشر کرد.

یک
1403/11/17 - 09:27- تروریسم سایبری

یک اندیشکده آمریکایی حملات سایبری منتسب به ایران را اغراق‌آمیز توصیف کرد

اندیشکده FDD ادعا کرد که ایران اغلب یک بازیگر سایبری درجه دوم است که هکرهای آن به طور مرتب از عملیات‌های نفوذ فقط برای تحریک و ایجاد وحشت استفاده می‌کنند.

کارشناسان شرکت امنیت سایبری کسپرسکی هشدار دادند که هیچ گونه اطلاعات شخصی نباید به چت‌بات ارسال یا به آنها اعتماد شود.

به گزارش کارگروه بین‌الملل سایبربان؛ کارشناسان سایبری نسبت به ارائه اطلاعات به چت‌بات‌ها هشدار دادند، حتی اگر بی‌ضرر به نظر برسد.

ربات‌های چت مانند «ChatGPT» متعلق به  «OpenAI» برای آسان‌تر کردن زندگی شما طراحی شده‌اند.

آنها می‌توانند به سؤالات پیچیده پاسخ و حتی وظایف را به شیوه‌ای انسانی انجام دهند؛ بنابراین ممکن است هر از چند گاهی وسوسه‌انگیز باشد که چیزهایی را در مورد خودتان فاش کنید، از جمله نامتان، اما باید به هر قیمتی از آن اجتناب کنید.

استَن کامینسکی (Stan Kaminsky)، یکی از کارشناسان شرکت امنیت سایبری کسپرسکی (Kaspersky)، هشدار داد :

«هیچ اطلاعات شخصی را به چت‌بات ارسال نکنید. هیچ رمز عبور، شماره پاسپورت یا کارت بانکی، آدرس، شماره تلفن، نام یا سایر اطلاعات شخصی که متعلق به شما، شرکت یا مشتریانتان است نباید در چت با هوش مصنوعی مشخص شود. شما می‌توانید این اطلاعات را با «REDACTED» در درخواست خود جایگزین کنید. به این دلیل که اطلاعاتی که به یک چت ربات هوش مصنوعی ارسال می‌کنید ممکن است همیشه خصوصی نباشد.»

برای شروع، ChatGPT خود دیالوگ‌هایی را ذخیره می‌کند که می‌توانند مجدداً برای رفع مشکلات فنی یا جلوگیری از نقض سرویس استفاده شوند؛ و حتی ممکن است مکالمات شما توسط ناظران انسانی بررسی شود. همچنین ممکن است در آینده از چت‌های شما برای آموزش نسخه‌های جدید GPT، یا جایگزین‌های دیگر، استفاده شود.

این احتمال وجود دارد که یک باگ باعث لو رفتن مکالمات شما شود یا حتی ربات چت به طور ناخواسته اطلاعات شما را با کاربر دیگری به اشتراک بگذارد.

کامینسکی گفت :

«به یاد داشته باشید که هر چیزی که برای یک ربات چت بنویسید می‌تواند علیه شما استفاده شود.»

همچنین باید از آپلود اسناد در چت‌بات‌ها خودداری کنید.

تعداد زیادی چت ربات به شما امکان انجام این کار را می‌دهند، اگرچه برخی از آنها نیاز به افزودنی دارند؛ و حتی اگر ظاهراً به شما در انجام کارتان کمک کند، ایده بسیار بدی است. وی توصیه کرد که هیچ سندی را آپلود نکنید. افزونه‌های متعدد به شما امکان می‌دهند از ربات‌های چت برای پردازش اسناد استفاده کنید.

او خاطرنشان کرد :

«ممکن است وسوسه زیادی برای آپلود یک سند کاری برای مثلاً دریافت یک خلاصه اجرایی وجود داشته باشد. با این حال، با آپلود بی‌دقت یک سند چند صفحه‌ای، خطر افشای اطلاعات محرمانه، مالکیت معنوی یا یک راز تجاری مانند تاریخ انتشار یک محصول جدید یا لیست حقوق کل تیم را دارید. بهتر است مکالمات خود با چت‌بات‌ها تا حد امکان ناشناس نگه دارید.»

منبع:

تازه ترین ها
اوراق‌قرضه
1404/02/12 - 13:32- سایرفناوری ها

اوراق‌قرضه تلگرام در بلاک‌چین

اوراق‌قرضه تلگرام با صندوق توکنیزه شده ۵۰۰ میلیون‌دلاری به بلاک‌چین می‌رود.

تعهدات
1404/02/12 - 12:17- سایرفناوری ها

تعهدات مایکروسافت برای آینده دیجیتال اروپا

مایکروسافت تعهدات جدید خود را برای آینده دیجیتال اروپا رونمایی کرد.

هشدار
1404/02/12 - 11:17- سایرفناوری ها

هشدار بانک ایتالیا در مورد خطرات ارزهای دیجیتال

بانک ایتالیا در مورد خطرات ارزهای دیجیتال و نفوذ سیاست ایالات متحده هشدار داد.

مطالب مرتبط

در این بخش مطالبی که از نظر دسته بندی و تگ بندی مرتبط با محتوای جاری می باشند نمایش داده می‌شوند.