人们通常会觉得,扳一下杠杆让火车停下来没问题,但却本能地抵触将旁观者推上轨道的想法。按照基本直觉,哲学家将其作为双重效应的基本原则,故意施加伤害是错误的,即使会带来好的结果。但如果不是故意的,只是单纯地想做好事,施加伤害或许是可以接受的——即旁观者只是碰巧在轨道上的话。
对于决策过程而言,这一界限是极难分析的。从一开始,程序必须能预见到两个不同的未来:一个是火车杀死了5个人,另一个是火车杀死了1个人;然后程序必须要问,因为去救5个人的行动会造成伤害,所以这一行动是否不被允许?或者,因为伤害只是做好事的副作用,所以这一行动是被允许的?
为了找到答案,程序必须能告知如果选择不推旁观者,或不扳杠杆会发生什么——这就是反事实推理。“这好像是一个程序在不断地自行调试,以找到编码的界限在哪里,如此事情就会改变,并预测改变的结果可能是什么。”佩雷拉和印度尼西亚大学计算机科学家阿里·赛普塔维加亚已经写出了一款逻辑程序,能在双重效应原则的基础上成功地作出决策,甚至还有更加复杂的三重效应原则,这些考虑了造成伤害是否故意,抑或只是必须如此。
人类、道德与机器
研究人员指出,对未来的机器人技术而言,如何建造道德机器人可能会有重大后果。英国利物浦大学计算机科学家迈克尔·费希尔认为,规则限定系统会让公众觉得可靠。“如果人们不确定机器会做什么,他们会害怕机器人的。但如果我们能分析并证明它们的行为原因,就更可能克服信任问题。”他正在和温菲尔德等同事共同做一项政府资助的项目:证明道德机器程序的结果总是可知的。
相比之下,机器学习的方法让机器人能从以往经验中学习,这让它们最终会比那些严格编程的同伴更加灵活而有用。许多机器人专家则认为,今后最好的方法可能是这两种策略的结合。佩雷拉说:“这有点像心理治疗,你可能不会只用一种理论。”难题仍未解决,就把各种方法以可行的方式结合起来。
随着自主交通的迅速发展,很快就会面临这些问题。谷歌的无人驾驶汽车已经在加利福尼亚部分地区试行。今年5月,德国汽车制造商戴姆勒的无人驾驶大货车开始自行驾驶穿过美国内华达沙漠。工程师们正在努力思考着怎么给汽车编程,让它们既能遵守交通规则,又能适应道路情况。“迄今为止,我们一直在尝试用机器人来完成那些人类不擅长的任务。”戴姆勒公司的发言人伯恩哈德·魏德曼说,比如在长期驾驶中一直保持专注,或在遇到突发情况时紧急刹车。“将来,我们将不得不给那些人们认为很自然的事情编程,因为那对机器来说并不是自然的。”