看起来DeepMind用AlphaGo战败李世石后似乎就没啥动静了,但其实不是的,这家公司正推动着AI往纵深发展,而不是单纯的停留在围棋这样的领域。只不过这些事情没有那么抓眼球,所以很多人并没注意到。很有意思的是从当前DeepMind所做的事情里我们其实可以抽取出一些更有价值的模式,比如什么是人工智能+,到底应该怎么加。
案例1:降低能源消耗
DeepMind第一件在做的事情是用机器学习来管理数据中心,期望达到比人管理更省电的效果。最终结果非常不错,实际成绩是:比人管理的时候节电40%。
为把事情说清楚需要简单介绍一下背景:
Google这类大互联网公司的应用比如搜索、Gmail、公有云服务等是完全跑在自己的服务器集群上的,这些集群无比庞大通常有数百万台服务器。
由于服务器太多因此并不会只放在一个地方,而是分布在多个数据中心里。管理各个数据中心时,一个核心问题就是冷却。我们手机用时间长了还发热,那么多总是在跑的服务器如果没有有效的冷却措施,那数据中心会变的火炉一样。
数据中心的冷却系统和中央空调差不多,这样一来就需要来根据环境来控制什么时候开冷却系统,开多少度等。但每个数据中心所处的地点、架构并不完全一致,这就给管理带来了一些麻烦。
DeepMind把这种麻烦总结为三点:
1. 冷却设备、操作设备的方法、环境之间不是简单的线性关系。也就是说不是环境温度是30度时,那冷却系统调成20度就完了。
2. 冷却系统并不能迅速响应内部或外部的变化。也就是说外部气温上升,你据此进行调整,但实际起效果的时候,外部气温可能又下降了。
3. 每个数据中心都有自己独特的架构和地理位置。
DeepMind解决这问题时显然又会用神经网络,这次他们训练了三个神经网络:
一个神经网络用各种传感器收集来的数据进行训练,比如:温度、功率、泵速等;
一个神经网络被训练用于预测下一小时的温度;
一个神经网络被训练用于预测下一小时的工作负荷。
都训练完之后DeepMind把这三个神经网络在某一个数据中心进行了应用,评测的指标是PUE(Power Usage Effectiveness),这个值表示数据中心能源消耗在整个IT能源消耗中的占比(显然越低越好)。为了说明结果,DeepMind贴了一张图出来:
取得效果后DeepMind认为,它的这个神经网络不只可以用于数据中心,而还有一定的通用性,所以准备把它展开到发电厂、半导体制造等。
案例原文:https://deepmind.com/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-40/
案例2:看病去
DeepMind的另一个尝试是用神经网络看病,并且专门给项目起了个名叫DeepMind Health。
医疗现实是这样:每11个成年人里就有1个会得糖尿病,而糖尿病会让患者失明的概率提高25倍,如果失明的症状能在早期发现,那么有98%的可能性来治愈这疾玻
但很可惜的是传统的分析方法非常复杂,非常有经验的眼科专家也要花很多时间才能做出诊断,所以很难及时的对所有病人进行精确诊断。
DeepMind解决问题的思路还是通过导入神经网络。他们同一家叫Moorfields的机构合作,拿到了近百万的原始数据。
我们可以想象这些数据有两个显然的好处:一个是这些数据是原始的医疗数据,清晰度足够;一个是这些数据实际上是标记过的。
DeepMind会用这些数据训练它们的神经网络,然后诊断的问题就变成了从图片中提取特征的问题,而如我们所知深度学习在图像识别上其错误率是比人低的,并且会越来越准。
这个项目还没有取得实际效果,但从Imagenet上不断提高识别率上来推断,这会导致诊断的精度和速度有根本性提升。