开展实地试验,得出正确的结论,采取恰当的应对措施,都不是轻而易举的事。但是成功的公司已经有能力来设计、开展重要的实地试验,并对其结果评估,采取针对性措施。正是这种“试验加学习”的环境,以及对其能否加以推广的理解和认识之上采取行动的能力,才让大数据有价值。
只是,由于越来越多的数据样本收益递减,这样的试验并不一定需要大数据。比如:谷歌透露说其往往用有效数据的0.1%中的随机样本来进行数据分析。确实,近日刊登的一篇文章显示大数据的大实际上是不利的,因为“数据库越大,就越容易支持你提出的假设。”换句话说,因为大数据提供重叠的信息,公司能从整个数据集,也能从其千分之一的数据集中获取同样的信息。
错误四:低估了劳动力技术需求
开展试验不是公司从大数据推测有价值信息的唯一途径。另一个可行的方法是公司可以培养算法技能,来更好的处理数据。推荐系统便是此类算法的一个范例。推荐系统通过针对关联数据的算法向客户推荐最相关的产品。只是,它不是依靠背后规模庞大的数据,而是依赖识别关键信息碎片来预测客户偏好的能力。的确,往往不是数据的规模,而是计算机学习的算法来确定结果的质量。尽管预测能力可能增加可用数据的规模,但是在大多数情况中,预测的提升说明规模收益随着数据集增加而递减不过,要建立好的算法就需要好的数据分析师。一些公司以为不同聘请员工来分析数据中的因果联系就能将大量的数据转化为信息,他们可能要失望了。
数据本身是没有价值的。只有与管理、构建和分析技能结合来,明确对其进行试验和算法,才能对公司有用。当你把价格信息看做是对价格信息处理的技能时就清楚了。很多情况下,相对于数据成本,留住数据处理人才成本更高。这说明对于一个公司而言,数据处理能力比数据本身更重要。