近日,由生命未来研究所(FLI)发表的一封关于促进人工智能健康发展的公开信引起了笔者的注意,信中呼吁人们要警惕人工智能副作用。随着人工智能的发展,他们担心人类所创造出的人工智能机器会有超越人类并影响人类生存的可能,因此,开展如何规避其潜在危害的同时获取其好处的研究十分重要。
生命未来研究所是什么机构
生命未来研究所是Future of Life Institute的英文缩写,简称FLI,它是2014年由 Skype联合创始人Jaan Tallinn、麻省理工学院教授Max Tegmark等在内的志愿者创立。
值得注意的是该机构的科学顾问委员堪称豪华,包括宇宙学家史蒂芬?霍金、SpaceX 和 Tesla Motors 创始人Elon Musk、牛津大学Future of Humanity Institute主任Nick Bostrom、 MIT Center for Digital Business主任Erik Brynjolfsson、哈佛大学遗传学教授George Church、MIT物理学教授Alan Guth以及剑桥大学、UC Berkeley 等大学的人工智能方面的着名教授都参与其中。 同时,目前该机构也吸引了众多人工智能领域的志愿者。
他们宣称,成立该研究所的目的一方面是为了促进对“未来乐观图景”的研究,一方面则是为了“降低人类面临的现存风险”。其中,在开发与人类相当的人工智能技术过程中出现的那些风险,将是该所关注的重点。
了解了生命未来研究所的来龙去脉,我们回到这封公开信本身,在题为《Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter》的信上,他们认为人类对人工智能领域的成功追求可能会给人类带来前所未有的利益,因此有必要在关于如何让这些利益最大化方面的研究投入精力,同时避免潜在的危害,让人工智能在人类的可控范围之内。
目前参与签署这封公开信的有:史蒂芬·霍金、Elon Musk、 Deep Mind 联合创始人、 IBM Watson团队及微软研究所团队的专家。有趣的是,Elon Musk 曾在一次公开访谈说道:
就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但最终没有一个成功的。
鉴于人工智能正吸引越来越多的投资,许多企业都希望能通过建立会自主思考的电脑,获得巨额回报。对于这种局面,FLI警告说,人们或许应“及时”将更多注意力集中在人工智能的社会后果上,不仅要从计算机科学的角度开展研究,还要从经济、法律及信息安全的角度开展研究。
目前,众多互联网巨头都在人工智能领域投入巨大的资金,包括Google、IBM、Facebook、Microsoft、百度等。并且在某些方法,人工智能的研究已经初见成果,包括语音识别、图像识别以及自动驾驶的汽车等。据估计,在硅谷如今从事人工智能业务的初创企业超过了150家。有权威专家指出2015年将是人工智能爆发的一年。
这封公开信还附上了一份 研究报告 ,整个报告分为四大部分:人工智能现状、短期研究优先项、长期研究优先项、结论。
人工智能现状
人工智能(AI)研究自诞生以来就探索各种各样的问题和方法,但在过去20年,一直专注于在一些环境感知和行动的智能代理系统的构建。在这种背景下,“智能”就和相关统计和经济合理性的概念有千丝万缕的联系,通俗来说,就是能够做出好的决策、计划或推论。采用概率和决策理论观点以及统计学习方法在很大程度上导致在人工智能、机器学习、统计、控制理论、神经科学和其他领域的集成和互补。结合数据的可用性和处理能力,建立共享的理论框架,已经在语音识别、图像分类、自动驾驶车辆、机器翻译、步态运动,自动问答系统取得了非凡的成功。