维克托对话周涛:危险的数据、伦理以及人的未来 【中云网配图】
【中云网 3月22日 讯】周涛:我们刚才看到了,大数据时代给我们带来的很多重要的改变。我想讨论的是,大数据应用方面可能带来的一些危险。自古以来,我们都有一个歧视问题,我们可能会因为她是一个女孩子,或者她来自一个特殊的地区,或者是她教育上的问题,在工作、就业上发生歧视,这是我们有一些刻板的印象,或者是我们的一些经验,我们认为女孩子不大适合做这个工作,或者某个地区的人,他的某些素质或人性不大好。
如果我们现在拥有的更多的数据,通过所谓的智能招聘软件,也许我们能够追踪一个人,他在公众中的表现。从而我们能够在海量数量分析中,建一些更复杂的模型,看看中间的关联,得到一些结论。当你提交一个简历的时候,可能你是一个河南人,可能是一个女孩24岁,学中文,是狮子座的,是B型血,所以你可以判断,她最有可能在两年内就离职,但实际上没有离职。这有没有可能,首先会使你为你没有做的一些事付出责任;第二有没有可能使得这种歧视,变得更加技术化更加彻底?
维克托·迈尔·舍恩伯格:刚才提到的问题,确实是我们过去普遍存在的问题。我们根据某一个特定的类型来判断这个人的特点,比如性别,因为是女性,我们就觉得你不适合做这项工作。但是,大数据的特点就在于,我们之前做出这些决定,是根据一个群体的特性,比如说性别,比如来自的地方。我们大数据的特点,我们做出决定是根据他个人的特点,而不是群体的特点。我们的目标,不会是某一个个人,因为他落入了某一个群体特征,而被误认为有什么问题。
但是这样的话,也有一个缺点。当你把群体特征拿走之后,这个群体特征原来可以成为一个人的借口,现在不可以了。比如你在面试的时候,你可能会面试者说,我们不接受女性,因为我们觉得女性不适合这个工作。但是她可以提出来,我虽然是女性,但是我本人适合这个工作。我们拿掉这个群体特征的话,我们只是说,我们觉得你本人不适合这个工作,这个时候他就没有借口说了,不是因为我本人不适合,而是因为群体不适合。这个答案是更真实的,也是更让人难以接受的。
周涛:我们想一下,我们知道以前很多歧视本身,带着一种自我证明的过程。我们开始可能认为女孩子不适合于学习很高科技的技术,于是,我们会给她提供更少的学习这些技术的教育和职位,过段时间之后,我们的确发现,男孩更适合做高科技。这就从某种意义上,似乎证明我们的判断是正确的。我想问一下,能够有全体大数据分析时代,你会不会为和你具有相似特征的前人所犯的一些错误或者一些不成功的例子付出代价。而且由于这种效应,使得永远不可能有机会重新证明你是正确的,或者推翻这些结论。
维克托·迈尔·舍恩伯格:是的。当我们来看群体特征的时候,我们通常会有一个想法,来证实我们对群体的看法。比如在美国,数据研究认为在黑人居住区域的犯罪率比较高,这个时候警察会把大部分的警力派到黑人居住的区域。这个时候,他们确实发现很多人犯罪。但是实际上,部分上也是因为有更多的警察的去发现这些犯罪,所以导致被发现的犯罪案件的数量比较多,这是一个自我证实的过程。