不只针对AI!微软CEO提出10条AI和人类行为准则

韩璐 8年前 (2016-06-30)

关于“AI机器人危险性”的争议一直未曾停止。

自从“AI”一夜走红,关于“AI是否会成为人类‘终结者’”这一问题的讨论就从未停止。1950年,著名科幻作家阿西莫夫提出“机器人三定律”;上周,谷歌联合OpenAI、伯克利和斯坦福的学者联合发布“AI五定律”;这周,著名科学家斯蒂芬·霍金提出要警惕出现“AI军备竞赛”,小心AI的恶性发展。

微软CEO纳德拉

其实,在业界内外众多专业人士都在进行激烈的讨论之前,微软早就坐不住了。此前,在2016年的微软Build开发者大会上,微软CEO纳德拉提出了6条人工智能发展准则,以及4条针对生活在AI时代的人类的行为准则:

AI 必须用来辅助人类:随着我们开发出来的自动机器越来越多,我们需要尊重人类自治。协作式机器人(co-bots)应当从事采矿之类的危险工作,从而为人类工人竖起一道安全网和提供保护措施。

AI 必须是透明的:我们应该能知道技术是如何工作的,它的规则是什么。我们需要的不仅仅是智能机器(intelligent machines),而且是可理解的机器(intelligible machines)。技术会了解人类的事情,但是人类也必须了解机器的事情。大家应该对技术如何审视和分析世界有了解。伦理和设计必须齐头并进。

AI 必须实现效能最大化,同时又不能伤害人的尊严:它应该维护文化承诺,支持多样化。在设计这些系统时我们需要有更广泛更深入更多的各种互动。技术界不应该决定这个未来的价值观和美德。

AI 必须用于智能隐私:要有复杂的手段保护个人以及群体信息,要能够以增进信任的方式进行。

AI 必须承担算法责任以便人类可以撤销非故意的伤害。我们设计这些技术时必须考虑到预期和非预期的情况。

AI 必须防止偏见,确保进行适当的、有代表性的调查,从而防止错误的启发法不会造成歧视。

但是人类也必须遵守一些守则——尤其是在考虑清楚我们的后代必须重点考虑和培养哪些技能方面。为了不被时代抛弃,我们的孩子和他们的孩子需要有:

同理心——机器很难复制的同理心(Empathy)在人与 AI 共存的世界里非常有价值。感觉到别人的想法和感受,协作和建立关系将会变得至关重要。

教育——有人提出,因为寿命延长出生率会下降,教育的投入也会随之降低。但我认为要想进行创新并管理好我们今天看不清楚的创新,我们就必须不断加大对教育的投资才能拔高我们的思考层次,才能获得更加公平的教育产出。新技术大规模实施所需的知识掌握和技能培养是一个非常困难的社会问题,要花很长时间才能解决。动力织机在1810年就发明出来了,但是由于经过充分培训的技工人手不足,服装业完成变革却花35年的时间。

创造力——创造力是最梦寐以求的人类技能之一,这一点不会改变。机器会继续丰富和增强我们的创造力。小说家Jhumpa Lahiri最近在接受采访中被问到,作为有特殊影响的英国文学作家,为何要用自己的第三语言意大利语来进行新的文学创作?她说道:“不断探索难道不就是创造力的要点吗?”

裁决和责任——我们也许愿意接受一个计算机生成的诊断书或者法律判决,但我们更希望由人来最后对结果负责。

仔细观察的话,我们从中可以发现一些端倪,阿西莫夫、谷歌和霍金等提出的观点都是基于“AI具有危险性”的前提。但是,AI机器人毕竟为人类所发明创造,在成功制造出来前,人类的每一个动作、每一个想法都会对机器人造成深远的影响,总的来说,就是AI在将来是否具有危险性,关键还是得看人们是如何操作的。

此外,就如纳德拉所言“最具建设性的讨论未必是AI的正邪之争,争论的焦点应该放在该技术给人和创造者带来的价值上面”。在他看来,为了更好地实现这个目标,人类就必须在AI 方面展开更深入的协调和协作,就设计的伦理和移情框架达成一致,这也就是他所提出的10条准则的基准值所在。可以说,这10条准则在目前看来是具有创造性的,因为它的内容囊括了这场争论的双方,从而更为全面、客观,具有参考性。

最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!

镁客网


科技 | 人文 | 行业

微信ID:im2maker
长按识别二维码关注

硬科技产业媒体

关注技术驱动创新

分享到