افزایش خطرات حریم خصوصی ناشی از هوش مصنوعی
به گزارش کارگروه فناوری اطلاعات سایبربان، ابزارهای هوش مصنوعی مولد، چه از نظر حرفهای و چه شخصی، به بخشی عادی از زندگی روزمره تبدیل شدهاند. باوجود مفیدبودن آنها، نگرانی در مورد نحوه مدیریت دادههای خصوصی به اشتراک گذاشته شده توسط کاربران روبهافزایش است.
پلتفرمهای اصلی مانند چت جیپیتی، کلود، جمینای و کُپیلوت برای بهبود مدلهای خود، ورودی کاربر را جمعآوری میکنند. بخش عمدهای از این مدیریت دادهها در پشتصحنه اتفاق میافتد و نگرانیهای مربوط به شفافیت و امنیت را افزایش میدهد.
آنات بارون، یک متخصص هوش مصنوعی مولد، مدلهای هوش مصنوعی را با Pac-Man مقایسه میکند که دائماً دادهها را برای بهبود عملکرد مصرف میکنند. هرچه اطلاعات بیشتری دریافت کنند، مفیدتر میشوند که اغلب به قیمت ازدستدادن حریم خصوصی تمام میشود.
بسیاری از کاربران هشدارها را در مورد عدم اشتراکگذاری اطلاعات حساس نادیده میگیرند. بارون توصیه میکند هر چیزی را که به غریبهها نمیدهید، از جمله شمارههای شناسایی، دادههای مالی و نتایج پزشکی، با هوش مصنوعی به اشتراک نگذارید.
برخی از پلتفرمها گزینههایی برای کاهش جمعآوری دادهها ارائه میدهند. کاربران ChatGPT میتوانند آموزش را در بخش «کنترلهای داده» غیرفعال کنند، درحالیکه Claude فقط در صورت تمایل کاربران، دادهها را جمعآوری میکند. Perplexity و Gemini تنظیمات مشابه، هرچند با شفافیت کمتر، ارائه میدهند.
نرمافزار Copilot مایکروسافت از دادههای سازمانی هنگام ورود به سیستم محافظت میکند، اما هنگام استفاده ناشناس در وب، خطرات افزایش مییابد.
بااینحال، DeepSeek دادههای کاربر را به طور خودکار و بدون هیچگونه انصرافی جمعآوری میکند که این امر آن را به انتخابی پرخطر تبدیل میکند.
کاربران هنوز کنترل را در دست دارند، اما باید هوشیار باشند. ابزارهای هوش مصنوعی در حال تکامل هستند و با ظهور عوامل دیجیتال، حفاظت از اطلاعات شخصی حتی حیاتیتر میشود.