人工智能的23条“军规”,马斯克、霍金等联合背书

18、人工智能军备竞赛:

应该避免在自动化致命武器上开展军备竞赛。

19、能力警告:

目前还没有达成共识,我们应该避免对未来人工智能技术的能力上限做出强假定。

20、重要性:

先进的人工智能代表了地球生命历史上的一次深远变革,应当以与之相称的认真态度和充足资源对其进行规划和管理。

21、风险:

针对人工智能系统的风险,尤其是灾难性风险和存在主义风险,必须针对其预期影响制定相应的规划和缓解措施。

22、不断自我完善:

对于能够通过自我完善或自我复制的方式,快速提升质量或增加数量的人工智能系统,必须辅以严格的安全和控制措施。

23、共同利益:

超级人工智能只能服务于普世价值,应该考虑全人类的利益,而不是一个国家或一个组织的利益。