18、人工智能军备竞赛:
应该避免在自动化致命武器上开展军备竞赛。
19、能力警告:
目前还没有达成共识,我们应该避免对未来人工智能技术的能力上限做出强假定。
20、重要性:
先进的人工智能代表了地球生命历史上的一次深远变革,应当以与之相称的认真态度和充足资源对其进行规划和管理。
21、风险:
针对人工智能系统的风险,尤其是灾难性风险和存在主义风险,必须针对其预期影响制定相应的规划和缓解措施。
22、不断自我完善:
对于能够通过自我完善或自我复制的方式,快速提升质量或增加数量的人工智能系统,必须辅以严格的安全和控制措施。
23、共同利益:
超级人工智能只能服务于普世价值,应该考虑全人类的利益,而不是一个国家或一个组织的利益。