about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
استفاده
1404/05/18 - 08:57- تروریسم سایبری

استفاده از مایکروسافت آژور برای جاسوسی از فلسطینیان

رژیم صهیونیستی از مایکروسافت آژور برای جاسوسی از فلسطینیان، آماده‌سازی حملات هوایی مرگبار و سازماندهی عملیات‌های نظامی در غزه و کرانه باختری استفاده می‌کند.

تمرکز
1404/06/26 - 14:35- جنگ سایبری

تمرکز اسرائیل بر «پیجر» و جنگ الکترونیک در نبردهای آینده با ایران

مقامات رژیم صهیونیستی، طراحی عملیات‌های غافلگیر کننده ای همچون عملیات پیجرها برای جنگ آینده با ایران را ضروری می دانند.

جذابیت Chat GPT در حال کاهش است چرا که گذشت زمان و عملکرد آن، کاستی‌هایش را آشکار می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ با گذشت زمان، خطرات درز اطلاعات شخصی یا شرکتی بر اثر استفاده از Chat GPT ظاهر شد. در حالی که امروزه حفظ حریم خصوصی داده‌های شخصی در وب شبیه یک رویا به نظر می‌رسد، آسیب‌پذیری‌های حریم خصوصی GBT Chat به دلیل موارد استفاده زیاد و اندازه پایگاه کاربر آن، نگرانی خاصی دارد.

با این حال، پتانسیل این ابزار برای بهبود گردش کار و در نهایت افزایش بهره وری ممکن است باعث شود بسیاری, از کاستی‌های آن چشم پوشی کنند. سه دلیل اصلی وجود دارد که چرا باید این اشکالات را جدی بگیرید و یا شاید از GBT Chat برای کار استفاده نکنید. اگر تصمیم دارید با یک ابزار هوش مصنوعی پیش بروید، حداقل باید از خطرات آن آگاه باشید:

از بین بردن نوآوری و خلاقیت

بسیاری از شرکت‌ها کارمندانی دارند که به شدت به GBT Chat برای انجام کار‌های پرمخاطب در مشاغل خود متکی هستند. شکی نیست که ابزار هوش مصنوعی به عنوان مکمل مفید است، اما تکیه بر آن برای انجام کار‌های سنگین برای شما در محل کار می‌تواند مضر باشد. اگر از GPT Chat به اندازه کافی ماهرانه استفاده کنید، می‌تواند پاسخ‌های خوبی را به شما ارائه کند، ولی باعث می‌شود تلاش کمتری برای کارتان انجام دهید و این می‌تواند به سرعت به یک شیب لغزنده برای رضایت تبدیل شود و نوآوری و اصالت را از بین ببرد.

همچنین در مورد اخلاق تجاری در مورد برون سپاری هوش مصنوعی چیزی وجود دارد که در آن به شما برای دانش خود پول پرداخت می‌شود، بنابراین ارسال کار ایجاد شده توسط هوش مصنوعی از نظر حرفه‌ای غیراخلاقی خواهد بود. این می‌تواند در دراز مدت به شهرت و شغل شما آسیب برساند.

درز اطلاعات

GBT Chat بر روی داده‌های کاربر آموزش داده شده است، به این معنی که ابزار هوش مصنوعی با جمع آوری و تجزیه و تحلیل محتوای هر درخواستی که دریافت می‌کنند، پاسخ‌های خود را بهبود می‌بخشند. اساساً، هر بیت داده‌ای که در GBT Chat وارد می‌کنید به طور موقت در سرور‌ها ذخیره می‌شود و در دسترس توسعه دهندگان ابزار است. این بدان معنی است که اطلاعات حساس می‌توانند به خطر بیفتند، همانطور که کارمندان سامسونگ به طور تصادفی اطلاعات محرمانه شرکت را از طریق جستار‌های چت GPT فاش کردند.

نگرانی‌های امنیت سایبری

هیچ نشانه روشنی مبنی بر آسیب پذیر بودن GBT Chat در برابر خطرات امنیتی مانند هک یا حملات بدافزار وجود ندارد، اما تا زمانی که به طور رسمی ایمن اعلام نشود، تأیید یا استفاده از آن برای تجارت رسمی توصیه نمی‌شود. این امر به ویژه با توجه به طراحی و عملکرد GBT Chat و توانایی آن برای تعامل انسان مانند یک معدن طلای واقعی برای افرادی است که به دنبال کلاهبرداری از کاربران هستند.

با در نظر گرفتن همه این موارد، ادغام GPT Chat (به شکل فعلی آن) در محل کار شما را در معرض خطر امنیتی قرار می‌دهد و اگر معلوم شود که ابزار هوش مصنوعی دارای نقص‌های امنیتی است، مهاجمان می‌توانند از آن‌ها سوء استفاده کنند.

تازه ترین ها
تنظیم
1404/07/12 - 17:14- هوش مصنوعي

تنظیم قانون هوش مصنوعی توسط مکزیک در بخش دوبله

مکزیک، پیش‌نویس قانونی را برای تنظیم هوش مصنوعی در دوبله و انیمیشن تهیه می‌کند.

شبکه‌های
1404/07/12 - 16:48- آسیب پذیری

شبکه‌های کامپیوتری آمریکا آسیب‌پذیرتر می‌شوند

انقضای یک قانون کلیدی در آمریکا در مورد امنیت سایبری بر آسیب‌پذیری شبکه های کامپیوتری این کشور خواهد افزود.

آزمایش واتس‌اپ در مورد یک ویژگی جدید برای استفاده از نام کاربری برای حساب

واتس‌اپ در حال آزمایش ویژگی جدیدی است که به کاربران امکان می‌دهد از نام کاربری برای حساب خود استفاده کنند.