怎么办?机器带来的新型知识我们无法理解

这些模型的成功或许给我们展示了一个古人和起源于他们的传统意想不到的一个令人不安的真相。

后计算稀缺性时代

在诞生的头50年里,计算机具有稀缺性。人们会为某一目的收集所需要的最低信息量,然后将那些信息整理成记录。那种局限性构建到了计算机最初的信息消化媒介:打孔卡。这些打孔卡将信息变成了空间数组,那些空间数组之所以可读,是因为数组和它的编码是一致的。那种一致性剔除了差异、独特性、例外情况和特异的东西。

当然,你可能会问为什么打孔卡会成为被选中的机制。这至少部分因为历史原因:赫尔曼·霍尔瑞斯(Herman Hollerith)所创办的公司后来变成IBM,他使用的打孔卡能够自动化1890年美国人口普查的计数流程。在18世纪末,打孔卡经过开发被用来控制提花织布机编织的图案。

这些年来,计算机已经扩展了它们能够处理的信息量,但直至我们将它们接入全球范围的公共网络,变革才发生。计算机如今能够容纳互联网上所有的信息。那些信息不仅仅包括庞大数据存储库的内容,还包括来自遍布于陆地、海洋和天空的传感器的输入信息。所有的那些信息的结构未经管制,因而促使处理采用人们意料之外的格式的数据的标准和协议的出现,进而保留信息上的差异性,而不是因为它们的不一致而消除它们。例如,NoSQL数据库可让记录在它们所捕捉的领域上存在对象差异。万维网创造者蒂姆·伯纳斯-李创造了“关联数据”一词来说明完全忽视记录概念,使得话题的每一个细微之处都能够以可重复使用的形式表达出来的信息。

这使得网络时代的信息概念与计算机时代很不一样。现在我们更多地将信息看作是溪流,而不是存储在容器里的资源。

我们的机器容量之大,连接性之强,让我们认识到我们的世界是多么地复杂,多么地不确定。

例如,Kevin Heng在《美国科学家》发表文章指出了多量程问题:“系统中的小小的扰动”在无数的尺寸和时间标度中会呈现巨大的影响。

模型总是可以简约的:它们将调查研究局限于我们能够观察和跟踪的那些因素。数千年来,我们假定我们的简单模型会反映宇宙的简单性。如今,我们的机器正让我们看到,即便设定的规则很简约,很漂亮,很理性,它们所管理的范畴都如此精细,如此错综复杂,如此相互联系,牵一发而动全身,以至于我们的大脑和我们的知识都无法理解。我们要借助由人类和计算机组成的网络才认识到世界原来完全受不确定性所支配——这个世界完完全全都是混沌的。

放弃知识

早在西方文化开始发现知识时,柏拉图告诉我们,信念并不足以成为真相,因为如果信念就是真相,那就意味着你对普里克内斯赛马比赛的胜出者的幸运猜测要被算作知识。这解释了为什么在西方国家知识要由可确证的真实信念构成。

我们新形成的对不可理解的模型的依赖,将其视作我们的信念的印证来源,将我们置于奇怪的位置。如果说知识包括对我们的信念的确证,那么知识不能归类为心智内容,因为如今的确证由存在于机器的、人类心智无法理解的模型构成。

对此,我们的反应可能是不再去依靠无法为我们所理解的计算机模型,从而让知识继续以其原来的方式发展。这意味着我们要放弃某些类型的知识。我们已经放弃了一些知识类型:法院严禁某种证据,因为准许它的话,就会给警方带来非法收集它的动机。同样地,很多的研究机构都需要拟议项目通过机构审查委员会的审批,从而预先防止那些或许有价值但可能会伤害受试者利益的项目。

我们已经开始定义机器确证的社会成本太高的领域。例如,信用评分公司FICO评分与分析高级副总裁安德鲁·詹宁斯(Andrew Jennings)表示,“由于法规要求建立信用评分系统的人处理好预计有用的东西和法律允许的东西之间的折衷,美国和其它地区在信用评分方面有很多存在已久的规章制度。”例如,机器学习算法可能会发现,浸礼会教徒一般都是风险小的信用对象,而圣公会教徒则不然。尽管这个例子属实,但那些只是可能不会被用于计算信用评分,因为美国法律不允许基于宗教信仰或者其它的受保护阶级的歧视行为。信用评分公司也不得使用表明这些属性的数据,比如订阅《浸礼会周刊》(Baptist Week)。