3.自动武器:致命的自动武器符合人道主义法律吗?或是像一些组织认为那样,自主武器应该被禁止,如果法律容许使用致命的自动武器,这些武器应该如何被集成到现有的指挥和控制结构,以便职责和责任能够被分散,又该如何是定义“有意义的人类控制武器”?最后,如何促进这些问题的透明度和公众话语权?
4.隐私:AI系统从监控相机、电话、电子邮件中获得的数据侵犯到隐私权吗?我们人类如何利用人工智能和大数据取决于我们管理和保护隐私的能力。
5.职业道德:计算机科学家应该在人工智能开发和使用的法律和道德上扮演什么样的角色?过去和现在有很多项目在探寻类似的问题:包括AAAI 2008-09 Presidential Panel on Long-Term AI Futures 和EPSRC Principles of Robotics 以及最近宣布的斯坦福大学的One-Hundred Year Study of AI and the AAAI committee。
3. 促进人工智能健康发展的计算机科学研究
随着自主系统变得更加普遍,它们的鲁棒行为将变得越来越重要。自动驾驶汽车、自动交易系统、自动武器等等的发展,理所当然的引发了如何保障高可靠性系统的鲁棒性,Weld 和Etzioni认为“社会将拒绝自主代理除非我们有可靠的手段来保证他们安全”。
1.验证:如何证明一个系统满足特定期望的正式属性
2.有效:如何保证一个系统满足它的正式需求,而没有其他无关的行为和后果
3.安全:如何预防系统被未授权人员故意操作
4.控制:如何确保人工智能系统运行后,在该系统上有意义的人类控制
关于验证,报告指出:“也许传统软件的验证和人工智能软件的验证最大的不同是传统软件的正确性是由一个固定的或者已知的模型定义的,而人工智能系统特别是机器人系统,系统设计师通常则知之不全。”
关于有效,报告指出:“为了构建一个鲁棒性表现强劲的系统,我们需要决定什么样的行为对每一个应用领域来说是有益的。这个问题直接和利用哪些工程技术、这些技术的可靠性如何、如何权衡这些技术有关——当计算机科学、机器学习和更广泛的人工智能技术是有价值的时候。”
关于安全,报告指出:“安全研究可以帮助人工智能更加健壮。随着人工智能系统越来越多的扮演重要角色,这将让网络攻击面迅速扩大。而且不排除人工智能和机器学习技术也被用于网络攻击。低水平的鲁棒性开发与可验证和bug的自由利用有关。例如,DARPA SAFE的目标是用一个灵活的元数据规则引擎来建立一个集成的软硬件系统,在此系统上可以被构建内存安全、故障隔离以及通过防止漏洞被利用的安全改进协议。这样的程序无法消除所有安全漏洞,但是可以显着减少最近的“Heartbleed bug”和“Bash bug”漏洞。这种系统可以优先部署在高安全性的应用程序当中。
对于控制,该报告认为:“对于某些类型安全性至关重要的人工智能系统,特别是车辆和武器平台——可能需要保留某种形式的有意义的人工控制,在这些情况下,需要技术确保有意义的人工控制。自动驾驶汽车是这个有效控制技术的一个试验平台。自动导航和人工控制之间的系统设计和协议转换是一个前景广阔的领域值得我们进一步研究。这些问题也促使我们研究如何在人机团队之间最优的分配任务。”
长期研究优先项
一些人工智能研究人员经常讨论人工智能长期目标是开发一个类人的系统并且超越人类在大多数识别任务上的能力,从而对社会产生重大影响。如果这些努力就会在可预见的未来实现,那么在上文阐述的研究之外,还应该注意以下更深层次的影响,从而确保实现的人工智能是健壮和有益的。
对这种成功概率的评估,研究人员之间的分歧很大,但很少有人相信这样的概率是微不足道的。例如,Ernest Rutherford,他可以说是最伟大的核物理学家表示,他在1933年表示核能是空谈,皇家天文学家Richard Woolley称星际旅行在1956年彻底搁浅。此外,证明值得在人工智能领域健壮性研究的概率并不需要太高,就像房屋保险,我们也是在房屋被烧毁概率很小的基础上投保的。