人们对于人工智能这个热点话题仍说法各异。
像史蒂芬·霍金、伊隆·马斯克、比尔·盖茨这样的专家,最近越发看重它的潜力和威胁。在读完尼克·博斯特伦《超级人工智能》一书后,马斯克大声质问,人工智能是否是“我们现在最大的威胁”。
我们对于人工智能流行的说法被人类伦理所扭曲了。人们对于人工智能的分歧不仅仅体现在它的威胁上,对于强人工智能是否会出现也有不同的看法。一些人认为具备人类相当水平的“强人工智能”(hard A.I。)永远不可能存在,但也有人认为这种趋势将势不可挡。但在很多情况下,这些争论可能偏离了真正的含义:人工智能在存在和思想上,可能和人类自身形式有很大的不同。
简而言之,这种观点表明,一种成熟的人工智能不一定是仿人的智能,或者由我们支配。如果我们以错误的方式去寻找人工智能,它出现的形式可能就会是:难以识别、风险扩大并且延迟收益。
这不仅仅是对于未来的担忧。人工智能早已走出实验室,并且深入日常生活。“弱人工智能”(Soft A.I。),比如苹果的Siri和亚马逊的推荐引擎,以及人工智能基础设施,比如高频算法交易,智能汽车和工业机器人已成为日常生活的一部分,与我们的工具使用、城市发展、经济建设和商品贸易息息相关。
不幸的是,人工智能的主流观点,起码在无数的电影、游戏和书籍中描述的,依然假定那些与人相似的特征(愤怒、嫉妒、困惑、贪婪、骄傲、欲望,更不用说冷漠疏远)是人工智能最重要的部分。这种错误的人类中心主义也许和现在的人工智能研究相去甚远,但这也侧面反映了我们的文化如何看待自我和高级合成认知(advanced syntheticcognition)。
在斯蒂文·斯皮尔伯格2001年的电影《A.I. Artificial Intelligence》中,那个小男孩机器人想要成为真正的男孩,虽然他只有一颗小金属心灵,而天网在电影《Terminator》中则沉迷于人类毁灭。我们不假思索的假定,斯坦利·库布里克和亚瑟·查理斯·克拉克1968年的电影《2001: A Space Odyssey》里的巨石Monoliths是在和人类主人公大卫交流,而不是他宇宙飞船上的人工智能:HAL 9000。
我认为我们应该停止这样的想法:真正的人工智能必须深切考虑到人类,尤其是以人作为它的关注点和动机。也许我们真正害怕的,并非是一台杀死我们的大机器,而是它认为我们无关紧要。这比被视作敌人更加糟糕。
除非我们假设,类人智能代表了所有可能的智能形式(这当然是自欺欺人),否则为什么要根据和我们的相似性来定义先进的人工智能?毕竟“智能”非常难以定义,而人类智能又无法简单地包含所有可能性。即便在实验室它具有实用的价值,但从文化角度,它还是适得其反,是不道德甚至是危险的。
我们不需要如此狭隘和自恋的人工智能观念,所以不能仅仅把我们自身的特性映射到机器的版本中。如果把这种狭隘的观念作为人类和人工智能沟通的基础,这个前提就已经是错误的了。更不用说,历史上不同群体的“第一次接触”,即使是在人类之间,也往往是不愉快的经历。
从雷德利·斯科特的《银翼杀手》到斯派克·琼斯的《她》,这些无数的科幻电影在测试人工智能的能力的时候,都要看它是否能被“以人相待”。这种观点从人工智能研究开始一直伴随到现在。这最早可以回溯到1950 年,英国数学家阿兰·图灵发表了论文《计算机器与智能》,那时候他提出了“模仿游戏”测试,也就是我们今天说的“图灵测试”。虽然版本有所不同,但它揭示了我们研究人工智能文化和道德的方法论定义了人工智能本身:无论是好的还是坏的。
最让人熟悉的版本是:提问者向两个隐藏的参赛者提问,一个是人,另一个是计算机。图灵认为,如果提问者不能区分两者的身份,并且计算机能成功假扮成人,那么就成功通过测试。从实践目的来说,计算机不就是“智能”的吗?