聊天机器人Tay上线一天就学坏了,成了一个种族歧视者

2020-07-31 浏览量:337
聊天机器人Tay上线一天就学坏了,成了一个种族歧视者

根据
Tay 说出「911 是小布希干的」

但始料未及的是, Tay 开始说出一些具高度争议,并带有种族歧视意义的话。根据 DailyMail 报导,像是「911 是小布希干的」、「跟着我唸,希特勒没有作坏事」、「Ted Cruz 是古巴希特勒」等等字眼。而在 Quartz 的文章里,也看得到微软工程师当时正努力修改 Tay 所说出的言论。

聊天机器人Tay上线一天就学坏了,成了一个种族歧视者

微软即时修改 Tay 的言论

但历经 16 小时的上线后,微软就将 Tay 紧急关闭,并表示会好好针对这个问题进行修改。的确这件事很多网民只是出自好玩,带着 Kuso 的心态跟 Tay 聊天,但也正因为 Tay 并没有道德价值观的判断能力,在大量的自我学习中成了一个口出秽言的种族主义者。虽然技术本身无关价值善恶,但 Tay 事件可能让世人再次反思一件事:「我们到底该怎幺避免人工智慧为恶?」

欢迎加入「Inside」Line 官方帐号,关注最新创业、科技、网路、工作讯息
聊天机器人Tay上线一天就学坏了,成了一个种族歧视者

相关文章