机器人道德规范困境 探索人工智能领域最难挑战之一

  

 

  完全编程的Nao机器人被用于机器伦理学实验

  

 

  “罗贝尔”被设计为帮助照顾病人或老年人

  ■新视野

  机器人三大法则

  科幻小说作家艾萨克·阿西莫夫在他1942年的短篇小说《环舞》(Runaround)中提出了“机器人三大法则”,后来更被几十篇故事和小说所借用。这些法则是一种保护性设计和内置的道德原则,包括如下三项:一、机器人不可以伤害人类,或看到一个人将受到伤害而不作为;二、机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;三、在不违反第一、第二项法则的前提下,机器人必须保护自身生存。

  《环舞》的故事放到现在真是非常合适。近年来,现实生活中的机器人专家也越来越多地引用阿西莫夫的法则:他们创造的机器人正变得越来越自主,以至于需要这类指导。今年5月,华盛顿智库布鲁金斯学会的一个专家小组在谈到无人驾驶汽车时,话题转到了自动驾驶工具在危险时刻该如何应对的问题。如果一辆车需要急刹车来拯救它的乘客,却可能带来其他风险,比如导致后面的车辆挤成一团;或者需要急转弯避让一个孩子,却可能撞到附近的其他人——这些情况下它该怎么办?

  “在日常生活中,我们看到越来越多的自主性或自动化系统。”参与专家组讨论的德国西门子工程师卡尔-约瑟夫·库恩说,研究人员怎样设计一台机器人,才能让它在面对“两难之选”时作出正确的反应?

  按目前的发展速度,这些难题将很快影响到健康护理机器人、军用无人机及其他有能力作决策的自主设备,而它们所作的决策可能会帮助或伤害人类。越来越多的研究人员相信,社会能否接纳这些机器,取决于能否通过编程让它们的行动达到安全最大化,符合社会规范并增进信任。加拿大温莎大学哲学家马赛罗·伽里尼说:“我们需要一些严肃的步骤来弄清楚,在某些道德情景下,让人工智能得以成功推理的相关条件是什么。”

  目前有几个项目都面临这一挑战,包括美国海军研究办公室和英国政府的工程基金理事会资助的创新项目。他们必须解决棘手的科学问题,比如要作出一个合乎道德的决策,需要哪种类型的智能,要达到多高的智能程度,以及这种智能如何转化成机器指令?计算机科学家、机器人专家、伦理学家和哲学家们都在共同努力。

  “如果你5年前问我,我们能否造出来道德机器人,我可能会说‘不’,但现在我觉得这种想法并不为过。”英国布里斯托尔机器人技术实验室的机器人专家阿兰·温菲尔德说。

  学习案例的机器人

  在目前人们经常提到的实验中,一个叫做“Nao”的商业玩具类机器人经过编程设计,能提醒人们按时吃药。

  “从表面上看,这好像很简单。”美国康涅狄格大学哲学家苏珊·安德森说,她丈夫迈克尔·安德森是哈康涅狄格州哈特福特大学的计算机科学家,他们正一起研究这种机器人,“但即使是这种有限的任务,也涉及到不平常的伦理道德问题。”比如,病人如果拒不接受Nao给的药,它下一步该怎么办?如果让病人跳过这一次,可能会危害他的健康;如果坚持让他服药,又会侵犯了他的自主权。

  为了教导Nao处理这种两难的情况,安德森给了它一些案例,在这些案例中生物伦理学家解决了这种病人自主权、危害和利益之间的矛盾。学习算法随后会在这些案例中分类选择,直至找到指导机器人在新情况下如何行动的办法。

  随着这种“机器学习”的发展,机器人甚至可以从模糊不清的输入中提取出有用的知识。理论上,这种方法有助于机器人在遇到更多情况时,作出更符合道德的决策,但也有许多人担心,这种好处也是有代价的。斯坦福大学的人工智能与伦理学专家杰瑞·卡普兰说,出现的原则不写入计算机代码,如此“你无法知道怎样编程制定一项特殊法则,来辨别某件事在道德上正确与否”。

  编程限定的机器人