眼下,像谷歌等公司开发的无人驾驶汽车,面临尴尬处境。
据《大西洋月刊》8月13日报道,眼下,像谷歌等公司开发的无人驾驶汽车,面临尴尬处境。比如说,谷歌出售了一辆无人驾驶汽车给你,不小心发生了交通意外。谁将为车祸造成的损失负责——你还是谷歌?驱动汽车的程序、当然还有传感器和所有的控制系统都是谷歌的产品。甚至他们公司的员工也认为,交警的罚单或者法院的传票都不应该下发给车主,而应该给谷歌。
是的,谁来负责?汽车制造商,车主,还是操纵方向盘的智能汽车自己?眼下讨论的热点是要不要赋予机器人(智能汽车)法律上的人格。
机器人能独立承担责任?
当第一次听说“机器人也有法律意义上的人格”,大多数人都快疯了。
机器人不是人!
当然不是。
但是法律意义上的人格,从概念上来说,不是认定它是否有血有肉,而是谁/什么实体被推上法庭。
《机器人也是人》的作者、律师约翰·弗兰克·威弗尔(John Frank Weaver)在美国知名网络杂志《Slate》上表示,“如果我们希望机器人(智能汽车)帮我们做更多事情,比如载我们出游或者帮我们派送东西,就需要在法律上赋予它一定位置。”
“如果我们像和常人交往一样对待机器人,法律理应承认这些互动与真正人类间的互动没有区别,”威弗尔写道,“在某些案例中,法律要求确认机器人可获承保及具有完全独立的行为能力,像真正人类或者实体公司一样。”
问题来了:如果我们不能赋予机器人一定范围内的法律权利和义务,我们就不能更有效地利用他们。而确定如何分配权利义务的工具就是法律人格。
或者找一个可能发生的场景。例如当无人驾驶汽车为了避免撞上一头小鹿紧急转向,不幸地是它撞上了旁边的汽车。如果汽车做到了一名好司机该做的,那么谷歌(或者任何其他无人驾驶汽车制造商)是否需要为车祸损失负责?
威弗尔的回答是否定的。在他推崇的法律世界里,机器人能独立承担责任,“汽车具备了独立行为能力,这样能更快地获得保险赔付来帮助受害者,同时保护车主应对可能的官司。”
但是在现实世界里,无人驾驶汽车可能需求特定的人员维护或者被限定在某些特定区域内行驶。
“谷歌的世界”没有严重车祸
如果这看起来很荒唐,那么换另一个角度。如果谷歌卖出了一百万辆汽车,它是否在法律上真的有责任为每辆车的每次罚单和事故“埋单”?什么样的公司能负担起这样的法律责任?
不过谷歌设计顾问布莱恩·舍伍德·琼斯(Brian Sherwood Jones)反驳了威弗尔的说法。他认为,事故是“机器人的责任”简直是胡说。他表示,如果我们不“把责任归咎于人”,那么将出现“大规模规避责任”的情况。
有趣的是,目前上路的汽车其行为能力已被划定给相关的运营企业等非人类的“法人”.
或许,威弗尔可以辩解说,使机器人成为独立的法律实体大有好处,如果我们在生活中碰到类似上述情形时,就能厘清机器人的角色作用。作为一个“法律人”上路,在碰到无人驾驶汽车正确行使却遇到交通事故的情形时,汽车需要自己的保险。也就是说,损失将由汽车这个法律实体来支付。
另一种选择是,让类似谷歌的公司自己设立企业,运营所开发的无人驾驶汽车:他们既然由此获利当然也要承担无人车带来的风险。这与其说是出售无人驾驶汽车,不如说谷歌自己运营一个超级安全的车队。当然,从谷歌汽车“小而轻、且有速度限制”的设计来看,谷歌准备让它的汽车行驶在一个不大可能发生严重车祸的世界。
或者可以说,为了囊括和处理像企业集团或机器人等复杂的现代化体系,我们的司法体系在如何处理与“人”的关系上一路豕突狼奔,机器“人”的例子就是一个很好的证明。可能我们需要的并不是将人格赋予机器人,而是改写“非人类实体”的人格概念本身。
正如温迪·柯米纳(Wendy Kaminer,律师、作家)警告的那样,将人格限制于“自然人”将带来一系列意想不到的结果。也就是说,开人格概念的倒车是不可能的,相反,最明智的做法是把人格扩展到……机器人。