人工智能系统中不可预料的偏差来源

这种关于新闻的信息推送偏差会带来很大问题。但是当我们把社交媒体软件的推送信息作为事业决策的支撑时,这些有信息泡沫的系统有可能会带跑我们的思维。一个只接受与他有类似观点或意见的知识分子,是不会从其他角度看问题的,而且会忽略其他声音。

相似性偏差

有时,偏差会在系统做规定动作时出现。比如,谷歌新闻,它会根据用户的请求,提供一组符合要求的故事。它的执行目标非常明确,而且完成度也很高。当然,它得到得结果是一组可以互相印证的故事。也就是说,谷歌新闻得到了一个与Facebook个性化泡沫类似得信息泡沫。

确实会出现一些与新闻角色相关的问题,而新闻的传播又进一步突出了这个问题-最明显的就是信息的平衡方法。“编辑控制”的缺失涉及到的情况十分广泛。尽管相似性在信息界是一种强有力的度量标准,但它也不是唯一的度量标准。一个决策应该由很多不同的观点支撑。那些只提供与请求或现有文档具有相似性的结果的信息系统会给自身造成信息泡沫。

尽管相反的,相对的,甚至冲突的观点对于企业的创新和发展很有利,但这种相似性偏差很容易被人接受。

冲突目标偏差

有时,为特定商业目的开发的系统会导致偏差,但是这种偏差是完全不可预见的。

设想一个系统,它可以用来为潜在的候选人提供职位描述。当用户点击职位描述时,系统会记录点击量。所以,很自然的想法就是,算法的目标应该是提供那些点击率最高的职位给候选人。

然而结果是,人们倾向于点击适合自身的工作,而这种现象可以通过固有的思维模式得以呈现。比如,标签为“护理”而不是“医疗技术人员”的工作呈现给妇女的可能性较大。不是因为这份工作最适合她们,而是因为她们被限制在这种工作类型中不去突破。

固定模式的影响体现在一个人更倾向于点击那些与他们自身知识模式相符的工作岗位(知识模式包括性别,种族,信仰)。结果是,任何一个通过点击量进行学习的系统最终只会按照固定的模式给人们提供工作机会。

机器偏差就是人类偏差

在理想情况下,智能系统和它们的算法都应该是公正客观的。然而,这些系统由我们开发,因此,会反映出我们的偏差。通过了解偏差以及了解偏差的来源,我们可以主动地设计可以规避变差的系统。

也许我们永远不会设计出绝对客观的系统,但至少,系统的偏差会比我们自身的偏差要少。继而,也许选举不会再误导我们,货币不会再通货膨找或紧缩,我们也会突破我们的个性化新闻屏障,看到更精彩的世界。

相关新闻

责编:陶宗瑶(实习生)

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!