دردسرهای ربات مایکروسافت
به گزارش واحد فناوری اطلاعات سایبربان؛ ربات یادشده که Tay نام دارد باهدف بررسی قابلیت سیستمهای هوش مصنوعی طراحیشده و مایکروسافت آن را به سایت توییتر اضافه کرده بود تا ضمن بررسی تعاملات کاربران با آن از تواناییهای Tay مطلع شود.
اما نتیجه این آزمایش در کمتر از 24 ساعت فاجعهبار بود و این ربات با دریافت اطلاعات مغشوش و شیطنتآمیز از کاربران آمریکایی به موجودی نژادپرست و بیادب مبدل شد و ارسال پیامهای نامناسب توسط آن مایکروسافت را مجبور به حذف ربات یادشده از توییتر کرد.
نقص در طراحی این ربات باعث تکرار اظهارات نژادپرستانه ارسالی کاربران شده و همچنین باعث میشد Tay در اظهارات خود از همان ادبیات نامناسب افرادی که با آنها تعامل میکرد استفاده کند.
مایکروسافت ابتدا مدعی شده بود گپ زدن بیشتر با این ربات آن را باهوشتر میکند و این تجارب باعث میشود وی رفتار شخصی مناسبی با کاربران داشته باشد. Tay بهگونهای طراحیشده بود که رفتاری مشابه با یک دختر 18 تا 24 ساله در آمریکا را داشته باشد.
بعد از گذشت مدتی کاربران با ارسال پیامها و اطلاعات غلط Tay را گمراه کردند، بهگونهای که وی در پیامی در توییتر هیتلر را فردی درست توصیف کرده و از یهودیان اظهار تنفر کرد. انکار هولوکاست، کافر دانستن یک کمدین مشهور آمریکایی و دفاع از دیوار کشیدن به دور مکزیک و درخواست از مردم این کشور برای پرداخت هزینه این کار ازجمله دیگر شیرینکاریهای این ربات نهچندان باهوش در مدت فعالیت 24 ساعته در توییتر بود.