about-3 back-contact back-deep eitaa کانال روبیکاخبرگزاری سایبربان
مطالب پربازدید
جایزه
1404/03/25 - 08:09- تروریسم سایبری

جایزه 10 میلیون دلاری برای گروه هکری نجات دهنده سامانه‌های پدافندی

ایالات متحده اخیراً با اعلام بیانیه‌ای از تعیین جایزه 10 میلیون دلاری برای مرموزترین دشمن سایبری خود به نام مِستر سول خبر داد.

پیشنهاد
1404/02/21 - 07:21- تروریسم سایبری

پیشنهاد رئیس سابق اداره ملی سایبری رژیم صهیونیستی درمورد ایران

رئیس سابق اداره سایبری ملی رژیم صهیونیستی گفت که این رژیم باید یک پیمان دفاع سایبری علیه ایران تشکیل دهد.

جذابیت Chat GPT در حال کاهش است چرا که گذشت زمان و عملکرد آن، کاستی‌هایش را آشکار می‌کند.

به گزارش کارگروه فناوری اطلاعات سایبربان ؛ با گذشت زمان، خطرات درز اطلاعات شخصی یا شرکتی بر اثر استفاده از Chat GPT ظاهر شد. در حالی که امروزه حفظ حریم خصوصی داده‌های شخصی در وب شبیه یک رویا به نظر می‌رسد، آسیب‌پذیری‌های حریم خصوصی GBT Chat به دلیل موارد استفاده زیاد و اندازه پایگاه کاربر آن، نگرانی خاصی دارد.

با این حال، پتانسیل این ابزار برای بهبود گردش کار و در نهایت افزایش بهره وری ممکن است باعث شود بسیاری, از کاستی‌های آن چشم پوشی کنند. سه دلیل اصلی وجود دارد که چرا باید این اشکالات را جدی بگیرید و یا شاید از GBT Chat برای کار استفاده نکنید. اگر تصمیم دارید با یک ابزار هوش مصنوعی پیش بروید، حداقل باید از خطرات آن آگاه باشید:

از بین بردن نوآوری و خلاقیت

بسیاری از شرکت‌ها کارمندانی دارند که به شدت به GBT Chat برای انجام کار‌های پرمخاطب در مشاغل خود متکی هستند. شکی نیست که ابزار هوش مصنوعی به عنوان مکمل مفید است، اما تکیه بر آن برای انجام کار‌های سنگین برای شما در محل کار می‌تواند مضر باشد. اگر از GPT Chat به اندازه کافی ماهرانه استفاده کنید، می‌تواند پاسخ‌های خوبی را به شما ارائه کند، ولی باعث می‌شود تلاش کمتری برای کارتان انجام دهید و این می‌تواند به سرعت به یک شیب لغزنده برای رضایت تبدیل شود و نوآوری و اصالت را از بین ببرد.

همچنین در مورد اخلاق تجاری در مورد برون سپاری هوش مصنوعی چیزی وجود دارد که در آن به شما برای دانش خود پول پرداخت می‌شود، بنابراین ارسال کار ایجاد شده توسط هوش مصنوعی از نظر حرفه‌ای غیراخلاقی خواهد بود. این می‌تواند در دراز مدت به شهرت و شغل شما آسیب برساند.

درز اطلاعات

GBT Chat بر روی داده‌های کاربر آموزش داده شده است، به این معنی که ابزار هوش مصنوعی با جمع آوری و تجزیه و تحلیل محتوای هر درخواستی که دریافت می‌کنند، پاسخ‌های خود را بهبود می‌بخشند. اساساً، هر بیت داده‌ای که در GBT Chat وارد می‌کنید به طور موقت در سرور‌ها ذخیره می‌شود و در دسترس توسعه دهندگان ابزار است. این بدان معنی است که اطلاعات حساس می‌توانند به خطر بیفتند، همانطور که کارمندان سامسونگ به طور تصادفی اطلاعات محرمانه شرکت را از طریق جستار‌های چت GPT فاش کردند.

نگرانی‌های امنیت سایبری

هیچ نشانه روشنی مبنی بر آسیب پذیر بودن GBT Chat در برابر خطرات امنیتی مانند هک یا حملات بدافزار وجود ندارد، اما تا زمانی که به طور رسمی ایمن اعلام نشود، تأیید یا استفاده از آن برای تجارت رسمی توصیه نمی‌شود. این امر به ویژه با توجه به طراحی و عملکرد GBT Chat و توانایی آن برای تعامل انسان مانند یک معدن طلای واقعی برای افرادی است که به دنبال کلاهبرداری از کاربران هستند.

با در نظر گرفتن همه این موارد، ادغام GPT Chat (به شکل فعلی آن) در محل کار شما را در معرض خطر امنیتی قرار می‌دهد و اگر معلوم شود که ابزار هوش مصنوعی دارای نقص‌های امنیتی است، مهاجمان می‌توانند از آن‌ها سوء استفاده کنند.

تازه ترین ها
مقاومت
1404/05/17 - 12:25- سایرفناوری ها

مقاومت انویدیا در مقابل ادعاهای درهای پشتی

انویدیا در برابر درخواست‌های مربوط به درِ پشتی تراشه مقاومت می‌کند.

توسعه
1404/05/17 - 11:11- هوش مصنوعي

توسعه ربات هوش مصنوعی توسط نماینده مجلس بریتانیا

نماینده مجلس بریتانیا یک ربات هوش مصنوعی باهدف تقویت ارتباط با موکلان خود ایجاد کرد.

هزینه‌های
1404/05/17 - 10:52- هوش مصنوعي

هزینه‌های سرسام‌آور در اجرای قانون هوش مصنوعی کُلرادو

قانون هوش مصنوعی کلرادو در بحبوحه بحران بودجه در دست بررسی است.