2017年1月7日,任正非在人工智能应用GTS研讨会上发表重要讲话,提出了三个观点:
1高质量的数据是人工智能的前提和基础,高质量数据输出要作为作业完成的标准;
2 要聚焦投入,敢于投资,成功只是时间迟早的问题;
3 人工智能要聚焦投入不要全面开花,先纵向打好歼灭战,旗开得胜后再横向扩张。
任正非认为,人工智能在投资充分的情况下不要太冲动,要急用先行小步快跑,要聚焦在确定性业务、人工消耗大的项目,宁可做得少一点,先在一两个点突破杀开口子,集中力量打歼灭战,不要铺开一个很广泛的战线。不要遍地都是智能化,这会形成全面开花没有结果的盲动,就有可能满盘皆输。
任正非最后提到,要踏踏实实聚焦场景一个个解决,选择与场景匹配的相对成熟的算法,不要等平台和数据底座的成熟,半成品也可以先投入到内部改进的使用,在不断的实践和问题解决中打造成熟的平台和数据底座。我们在这些集中突破的项目上取得经验培养出新生力量,这些新生力量要到基层去贯彻推广落实,使它能够应用起来变成习惯。在纵向发展的基础上,把握好横向扩张的合理节奏。
以下为任正非在人工智能应用GTS研讨会上的讲话全文:
公司巨大的存量网络是人工智能最好的舞台,GTS要利用人工智能实现高质量和高效率的交付与服务,支撑“一万亿”美元存量网络的服务以及故障处理、预防的自动化……,以及支持每年数百亿美元的网络增量的科学、合理、有效地交付。持续为客户创造价值并提升客户满意,构筑活的“万里长城”,成为公司重要的可移动的“马奇诺防线”。谁能最低成本地提供高质量的服务,谁就是这个世界最后的赢家。公司的人工智能研究是一个使能器,促使公司各项管理进步,不要随议论的忽悠而迷失方向。
01 高质量的数据是人工智能的前提和基础,高质量数据输出要作为作业完成的标准
为什么我们不可以统一作业的工具,和工作的标准。配个数据采集聚集器,员工在现场作业完后,回到驻地处理一下,一按键就群发出去了,不必经过办事处、地区部,就一步到位了。数据对各级各段透明,没有层层级级的汇总处理,就快多了。
我们有430万个站点,每年增加96万个,1万1千个合同,每个基站报上来的报表这么厚,是因为没有模块化分类。不抽象不总结就要上报,我们处理管道就那么粗,所以堵得一塌糊涂。实际上归纳出来可能就一百种,大不到一千种模块。我们分类按模板传信息给供应链,供应链解码打开、作清单发货,我们管理会简化很多。现在报表层层上报,每层增加好多人,一大堆报表甚至没人读过。要基于目的标准模型建设简单自动报表体系,这样中间的人工就减掉了,主战场的员工就增加了。人人都基于作业给你提供准确数据,集中起来你的科学性就好了,有了这些准确数据,通过监督学习和统计手段就能使我们的效率提高。
填写的表中有清晰的也有模糊的,确定性的工作填写的数据要准确,如果没有审核就传上来不正确的数据,就是一团乱麻。清晰的数据不断更新积累,新的有效数据不断更替。总有一个模糊区,模糊数据的模糊性会持续不断降低,但又产生新的模糊。在不该模糊的地方应该有指引,能够指引基层工程师来清晰操作。人工智能就要靠几万员工在做事的时候把数据有效采集回来,在归纳总结中找出规律来。清晰、准确的现场数据是重要的事情。
我们是设备供应商不是流量运营商,要根据业务场景来看多快数据算实时,不要形而上学,要根据必要的需求来获取这些所谓实时数据。对于网络设备数据的输出,可以采用类似“七远八按”的方式建设数据输出标准,以基于人工智能的交付服务视角重新制定可服务性标准,并作为产品上市必要条件。
因此,你们说数据缺乏、杂乱无章,我不批评,我觉得没有数据才是我要批评的。每一个人能不能搞个工装穿在身上带个仪器,数据先收集存储起来,然后一按按钮就传送到信息库,对贡献数据者还可以奖励。