五角大楼AI伦理原则公布:负责、公平、可追踪、可靠和可管理
在“公平”的讨论上,五角大楼国防创新委员会给出了不太一样的“解释”。
据外媒报道,五角大楼内部成立的国防创新委员会投票批准了国防部的AI伦理原则,包含5个主要原则(负责、公平、可追踪、可靠和可管理)、12条建议,指导美军将来如何在战斗和非战斗AI系统中应用道德规范。
原则指出,人类应继续对“发展、部署、使用和成果”负责,军方使用的人工智能系统应避免可能导致意外伤害的偏见。国防部部署的AI还应该可靠、可管理,并使用“透明且可审核的方法、数据源以及设计过程和文档。”
其中“避免意外伤害和破坏以及避免人为部署系统的脱离接触”这一点,被部分委员会成员认为是“可管理原则”中应该明确的一点。而在这一点的实践上,军方需要在使用的AI系统上配备一个关门开关,以防情况出错时能够进行人为制止。
令人“较为意外”的是,在“公平”这一原则上,国防创新委员会给出了一个较为不同的解释。国防创新委员会成员和卡耐基梅隆大学研究副总裁Michael McQuade表示,“您可能会在‘AI伦理原则文档’中看到公平一词引起的共鸣。我会告诫您,在许多情况下,国防部不应该公平。这应该是一个坚定的原则,即我们的系统中不应有意外的偏见。”这与人们一般理解中的“公平”还是不同的。
近一两年来,围绕“AI伦理”这一点,五角大楼没少受到来自业界专家和群众的质疑和抨击,譬如与谷歌合作“Maven项目”,基于后者AI技术让无人机自动追踪有关对象等等。对于五角大楼而言,AI伦理原则的落实是较为急迫的。
据了解,该AI伦理原则虽然已经得到了国防创新委员会的批准,但最终还是将由国防部领导来决定是否采纳任何原则。国防部发言人表示,目前“人工智能原则:国防部关于人工智能在伦理上的使用的建议”文件和相关白皮书已经上传至国防创新委员会的网站,将与国防部领导进行共享。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新