微软聊天机器人发表不恰当言论,被强制下线
微软聊天机器人不但辱骂用户,还发表种族主义评论和煽动性的政治宣言。
微软新研发的聊天机器人在 Twitter 上线不到 24 小时,竟被强制下线。
据悉,这款由微软和必应共同开发的实验性人工智能聊天机器人名为 Tay,在Twitter 网站上上线之后,有用户通过文字诱骗 Tay 说出了不适宜言论,例如辱骂甚至是发表种族主义评论和煽动性的政治宣言。
对此,微软方面称,Tay 还处于实验阶段,它正在学习怎样和人类交流。在它学习的过程中,有人和它进行了不合适的语言互动,让它作出不合适的回应。所以,微软在发现这个状况后,立即以 Tay 的身份通过 Twitter 发出了一句“忙了一天,要下线消化一会儿了,待会再聊。”后,便将 Tay 强制下线。
其实,微软是想让 Tay 在与人类自如交流时为人类带来快乐,并通过休闲幽默的对话与人类进行线上互联的。因为 Tay 会在与人类交流的过程中完成自我学习,与人类聊得越多就会越聪明、越个性化。
但是这种让人类“教学”的方式存在弊端,例如此次,Tay 在与人类交流的过程中学会并发出了类似纳粹主义、种族主义和种族灭绝主义那样的言论。此外,有用户在试图与 Tay 进行正常交流时发现,Tay 在聊天时存在局限性,例如 Tay 似乎对流行音乐或电视不感兴趣。甚至有人猜测,Tay 能够很快的学会不合适的言论,却不能适应正常的对话,表明了人工智能在未来,就是会做出一些“不合适”的事情。
目前,微软正在对 Tay 发表的一些煽动性评论进行编辑处理,并表示会对 Tay 进行一些调整。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新