机器人学的三大法则(机器人定律有哪些)

现如今,效法阿西莫夫设定的“机器人三定律”创建负责任的人工智能原则显得愈发重要了!

1942年,科幻大师艾萨克·阿西莫夫在他发表的作品《转圈圈》(Runaround,《我,机械人》(I, Robot)中的一个短篇)中第一次明确提出了影响后世的“机器人三定律”,并且成为他的很多小说,包含基地系列小说中机器人的行为准则和故事发展的线索。

根据“机器人三定律”,第一、机器人不得伤害人类,或坐视人类受到伤害;第二、机器人必须服从人类命令,除非命令与第一法则发生冲突;第三、在不违背第一或第二法则之下,机器人可以保护自己。

“机器人三定律”珠玉在前,人工智能时代的“法则”该如何制定?

艾萨克·阿西莫夫

在1985年《机器人与帝国》这本书,阿西莫夫又在三大定律之前加增了“第零”定律——机器人不得伤害整体人类,或坐视整体人类受到伤害。

得益于阿西莫夫及其作品的影响力,一些其他作者的科幻小说中的机器人也开始“遵守”这三条定律。同时,三定律也具有一定的现实意义,在三定律基础上建立新兴学科“机械伦理学”旨在研究人类和机械之间的关系。

在过去的十年中,人工智能(AI)毫无疑问取得了突飞猛进的发展,并在很大程度上会彻底改变甚至颠覆人类社会的前进方向。无论是提高生产力、降低成本,还是创造新的产业,AI技术的经济效益都将是巨大的。麦肯锡估计,到2030年,人工智能对全球经济的贡献将超过13万亿美元

但就像任何其它技术一样,人工智能在带来极大益处的同时,也会给个人、社会增加一些负面的风险。例如,它可以被市场上的恶意参与者以各种方式利用,从而对个人和组织产生重大影响,侵犯我们的隐私,导致灾难性的错误,或强化年龄、性别及种族等方面的偏见与歧视。

因此,效法阿西莫夫设定“机器人三定律”一样创建负责任的人工智能原则就显得至关重要了。

“机器人三定律”珠玉在前,人工智能时代的“法则”该如何制定?

有鉴于此,Seldon公司工程总监、伦理人工智能和机器学习研究所(Institute for Ethical AI and Machine Learning)的首席科学家、Linux基金会GPU加速委员会的**Alejandro Saucedo及其团队就通过收集提炼,共整理出了关于人工智能负责任使用的四个原则。

▍一、人的扩展

当一个团队研究如何负责任地使用人工智能来实现现有人工工作流程的自动化时,重要的是要从评估原始非自动化流程的现有要求开始。这包括确定在社会、法律或道德层面上可能出现的潜在不良结果的风险。反过来,这可以更深入地了解可能需要人类干预的流程和接触点,因为人类参与流程的程度应该与所涉及的风险成正比。

例如,与一个自动化贷款审批流程的人工智能相比,一个提供电影推荐的人工智能对个人产生严重影响结果的风险要小得多,因此对后者要求的程序和干预范围就要更严格。一旦一个团队确定了人工智能工作流程中所涉及的风险,那么就可以在需要将人员拉进来进行审查时评估相关的接触点。一般这种模式被称为“人机回环”(Human-in-the-loop,HITL)

“机器人三定律”珠玉在前,人工智能时代的“法则”该如何制定?

HITL确保了当一个流程通过人工智能实现自动化时,各种接触点被明确定义。在这些接触点中,人类能够参与检查或验证来自人工智能的相应预测,并在相关情况下,提供更正或手动执行操作。这可能涉及到技术专家和主题专家的团队(如在上面的贷款案例中的承销商),以审查人工智能模型的决策,以确保它们是正确的,同时也符合相关的场景或行业特定政策。

▍二、偏见评估

在解决人工智能中的“偏见”时,我们应该记住人工智能的工作方式是通过学习最佳方式来判别“正确”的答案。从这个意义上说,完全消除人工智能的偏见是不可能的。

因此,我们在这个领域面临的挑战不是确保人工智能是“无偏见的”。相反,它是要确保通过相关的流程、相关的人类干预、使用最佳实践和负责任的人工智能原则,以及在机器学习生命周期的每个阶段利用正确的工具,来缓解不希望出现的偏见,从而减少不希望出现的结果。

要做到这一点,我们应该始终从人工智能模型所学习的数据开始。如果一个模型只接收含有反映现有不希望的偏见的分布的数据,那么底层模型本身就会学习这些不希望出现的偏见。

“机器人三定律”珠玉在前,人工智能时代的“法则”该如何制定?

然而,这种风险并不限于人工智能模型的训练数据阶段。团队还必须制定流程和程序,围绕人工智能的训练数据、模型的训练和评估,以及模型的操作生命周期,识别任何潜在的不良偏见。可以遵循的这种框架的一个例子是伦理人工智能和机器学习研究所的eXplainable AI框架。

▍三、可解释性

为了确保一个人工智能模型适合其使用场景的目的,我们还需要让相关的领域专家参与进来。这样的专家可以帮助团队确保一个模型使用的是相关的性能指标,而不是简单的统计性能指标,如准确性。

不过,要想做到这一点,确保模型的预测能够被相关领域的专家所解释也是很重要的。然而,先进的人工智能模型往往使用最先进的深度学习技术,可能无法简单地解释为什么会做出一个特定的预测。

为了解决这个问题,帮助领域专家理解人工智能模型的决策,组织可以利用一系列广泛的工具和技术来提高机器学习的解释能力,这些工具可以用来解释人工智能模型的预测。

接下来的阶段是负责任的人工智能模型的操作化,看到模型的使用被相关的利益相关者所监督。人工智能模型的生命周期只有在它投入生产时才开始,而人工智能模型会随着环境的变化而出现性能上的分歧。无论是概念的漂移还是人工智能运行环境的变化,一个成功的人工智能在被置于生产环境中时需要不断地监测。

“机器人三定律”珠玉在前,人工智能时代的“法则”该如何制定?

▍四、可重复性

人工智能中的可重复性是指团队在一个数据点上反复运行算法并获得相同结果的能力。可重复性是人工智能需要具备的一个关键品质,因为它对于确保一个模型的先前预测在以后重新运行时会被发布是很重要的。

但是,由于人工智能系统的复杂性质,可重复性也是一个具有挑战性的问题。可重复性要求在以下所有方面保持一致:

1、计算人工智能推理的代码;

2、从所使用的数据中获得的权重;

3、用于代码运行的环境/配置;

4、提供给模型的输入和输入结构。

改变这些组件中的任何一个都可能产生不同的输出,这意味着为了使人工智能系统成为完全可重复的,团队需要确保这些组件中的每一个都以稳健的方式实现,使其成为原子组件,无论何时重新运行模型,其行为都完全相同。

这是一个具有挑战性的问题,尤其是在大规模处理机器学习领域所涉及的广泛而异质的工具和框架的生态系统时。幸运的是,对于人工智能从业者来说,有大量的工具可以简化最佳实践的采用,以确保整个端到端人工智能生命周期的可重复性。

▍结语

坦白来讲,上述四项负责任的人工智能原则就是为了确保人工智能技术不会成为一种削弱弱势群体、强化不道德偏见和消除责任的工具。相反,我们希望可以确保人工智能被用作推动生产力、经济繁荣和社会福祉增加的工具。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 k0kaujt7@163.com 举报,一经查实,本站将立刻删除。
(0)

相关推荐

返回顶部