许多工程师认为,要避免这一问题需要不同的策略,大部分正在尝试编写有明确法则的程序,而不是让机器人自我推导。去年,温菲尔德发布了他的实验结果:当有人遇到危险,如掉进洞穴时,允许一台机器去救助他的一套最简单的规则是什么?温菲尔德意识到,最明显的是机器人要有能力感知它周围的环境——识别洞穴和人的位置,以及它自己相对于二者的位置。但机器人还需要一些规则,让它能预测自身行为可能带来的后果。
温菲尔德的实验用了几个曲棍球大小的机器人,他将其中一些设计为“H-机器人”代表人类;另一个则按照阿西莫夫的小说取名“A-机器人”,代表道德机器。他还模仿阿西莫夫的第一法则给A-机器人编程:如果看到H-机器人处在掉入洞穴的危险中,必须来到H-机器人身边解救它。
温菲尔德用机器人做了几十次测试。随后他很快发现,执行“允许无害法则”面临着道德困境,如果让A-机器人看到两个H-机器人同时濒临险境,这时它会怎么做呢?
温菲尔德说,结果表明,即使最低限度的道德机器人也是有用的:A-机器人通常会设法去救一个“人”,通常是首先移动到离它稍微近一些的那个“人”身边。有时它会迅速移动,甚至设法去救两个“人”。
但实验也显示了极简主义的限制。在近一半的实验中,A-机器人只是在那里无助地振动,任两个处在危险中“人”死亡。要想改善这一点,还需要找到如何做选择的额外法则。比如,其中一个H-机器人是成人,而另一个是个孩子,A-机器人应该先救哪一个?在做类似这样的选择时,甚至人类自己也无法达成一致意见。通常,就像卡普兰所指出的:“我们不知道明确的规则应该是怎样的,也不知道该如何编写它,如此它们必然是不完善的。”
而拥护者认为,以规则为基础的策略有一个重要优点:机器为何要做选择,这一点总是很明确,因为设计者制定了规则。
战场中的“道德管理者”
这也是美国军方所关心的一个重要问题,自动系统是一项关键的战略目标。机器能否帮助士兵,或执行可能有生命危险的任务。“送一个自动机器人去执行军事任务,并算出在各种任务中应该遵守的什么道德法则,这恐怕是你最不希望的事。”乔治亚理工大学的罗纳德·阿金说,他正在研究机器人道德软件。如果一个机器人需要在救一名士兵和追逐敌人之间做出选择,那事先知道该做什么是非常重要的。
在美国国防部的支持下,阿金正在设计一个程序,以确保军用机器人能按照国际公约规则来行事。一套称为“道德管理者”的算法能计算出某种行为,比如发射一枚导弹是否被许可,只有在得到肯定答案“是”的情况下才能继续下一步。
在对“道德管理者”进行的一次虚拟测试中,让一辆无人驾驶的自动车模拟执行打击敌人目标的任务——但如果有市民在建筑物附近,则不允许这么做。设定的场景各种各样,自动车相对于攻击区的位置也是多变的,市民有时出现在医院,有时在住宅建筑,由算法来决定何时允许自动车完成其任务。
自主而且军事化的机器人令很多人震撼。有人认为它们是危险的——围绕这种机器应不应该被批准已有无数争论。但阿金认为,在某些情况下这种机器比人类士兵更好,只要它们经过编程,就永远不会打破战争规则,而人类却可能无视这些规则。
目前,那些正在研究严格编程的机器伦理学的科学家倾向于使用代码,用逻辑的描述,例如“如果一个陈述为真,向前进;如果为假,不要动”。位于葡萄牙里斯本的“诺娃”计算机科学与信息实验室的计算机科学家路易斯·莫尼兹·佩雷拉认为,逻辑是编码机器道德的理想选择,“逻辑是我们推理并得出道德选择的方式”。
写出一些逻辑步骤指令来做道德选择是一项挑战。佩雷拉指出,使用计算机程序的逻辑语言,对假设的情景得出最终结论是很困难的,但这种反事实推理是解决特定道德困境的关键。
道德困境逻辑解决
比如哲学中那个著名的道德选择问题:假设轨道上有一列失去控制的火车,即将压死正在轨道上的5个无辜的人,你只要扳一下杠杆使其转到另一条轨道就能救这5个人,但在那条轨道上有另一个旁观者就要因此而死;或者说,唯一能让火车停下来的办法是把这个旁观者推到轨道上,这时你该怎么做?