虽然我们离霍金所说的“完整的”人工智能还很远,但现在就开始思考如何应对到时的情况,也是谨慎之举。“超人”又“自治”的东西,人类不早就创造过了吗?官僚体制、市尝军队,这些都是,这些都帮助人类做到没有辅助、组织时做不到的事情;这些都能自主运作,而且如果不加法规管理,都会造成巨大的祸害。
这些相似的事物或许可以令人工智能的持疑派放心一些。这些事物也喻示了人类社会如何可以安全地研发人工智能。军队需要文官管理,市场需要监管,官僚需要问责、透明;同理,人工智能系统也必须接受监督。由于系统的设计者无法预见所有的情形,还必须要有危急时刻拉闸中断的设置。加入这些限制并不会妨碍进步。大到核弹,小到交通规则,这些都证明人类曾成功运用技术和法律手段去管理威力强大的创新。
过度畏惧“自动化非人智能”的诞生,会令相关的讨论走偏。诚然,人工智能会带来危机,但注意到危机的同时,我们也要看到其庞大的效益。
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!