过去,GPU 一直被英伟达等公司推崇为最好用的深度学习处理工具,Google 也一直主要采用 GPGPU( 通用图形处理器)承担内部研究和业务的计算,但随着新的深度神经网络模型问世,GPU 在保持泛用性的同时,性能有时跟不太上。因而,TPU 成为了 Google 用于在深度学习中替代 GPU 的武器。
如果你以为 Cloud TPU 就是这么一个简单的处理器的话,那你就低估它的实力了:它其实像乐高积木一样,可以支持多块板拼在一起,组成一个性能更强的超级计算机……目前来看应该可以支持到 64 块,达到超过 11 PFlops(千万亿次浮点计算)的惊人性能。
作为人工智能的一个重要使用场景,今年 Google 的新发布在图像识别方面也有很大的动作。
一款名叫 Google Lens 的新相机产品,让很多现场观众都感到兴奋。它具有一些最基本的识别功能,比如可以拍照“识花”(我想花应该不会是唯一支持识别的物体种类),还能扫描一段 Wi-Fi 的用户名/密码/条形码,然后让手机自动连接到网络上,省去手动查找网络、输入密码的繁琐。
更有趣的是,如果你来到一个新的城市,不知道该去哪家餐馆,也可以打开 Google Lens 对着随便一家餐馆扫描,它能够自动在 Google 的数据库里找到对应的资料显示给你看,包括点名、菜式、评分、打烊时间等等。
当其他公司忙着在各种图像识别比赛中拿高分时,Google 却更多思考怎样使用技术创造出更多有趣的功能。一个很好的案例是 Google Photos,产品经理发现人们出外游玩聚会拍下了很多的照片,最后却经常忘记和朋友一起分享。于是他们为 Google Photos 开发了一个新功能“分享建议”(Suggested Sharing),自动识别照片里的人脸,找到对应的朋友,问你“要不要分享给她?”
而如果这个人跟你的关系亲密,比如家人,另一个新功能“共享相册”(Shared Libraries) 能让家庭照片的共享变得更容易。同样基于人脸识别,这个功能可以自动将从某个时间起算,包含指定人脸的照片自动收纳到一起,同步给家庭成员。显然,共享照片集已经不是什么新东西,iOS 相册在几年前就实现了,但 Google Photos 的不同之处就在于不用手动翻阅容量成百上千张的相册——人工智能真的太省事。
在 Google,用人工智能的姿态对产品重新思考,已经进入到了系统级。
即将在今年晚些时候正式推出的新版 Android 操作系统“Android O”,已经在系统级内置了很多基于机器学习的细小功能。一个让我很惊讶的功能叫做“智能文本选择”(Smart Text Selection)。复制粘贴在手机上是一种极其痛苦的体验,这件事大家应该可以达成共识,因为用手指在方寸屏幕上精确地选择要复制的内容很难,一不小心就全选了,又得重来。
而在 Android O 中,用手指在你想要复制内容上双击一下,比如一个好几个单词组成的人名、专有名词,地址,或者电话号码,你会发现它居然能智能地把你想要复制的内容准确高亮。如果是地址,弹出的小菜单还会建议你打开地图导航;如果是电话号码,则可以直接呼出、短信……
这些细小却又让人印象深刻的功能,在较少被人注意到的细节之处闪耀着人工智能的光芒。其实 Google 看待人工智能的姿态也正是如此,“(人工智能的)迁移的意义不光是打造充满未来感的设备,或者进行最前沿的研究。我们也在思考怎样让人工智能对数以亿计的人们触手可及,创造新的机会。”皮柴说。
在 Google 看来,人工智能不止属于 Google,它的产品和用户,还应该为人类社会的进步作出更普遍和更重要的贡献。在 I/O 上,皮柴宣布了一项其实和开发者没太大关系,但仍然足以让人激动的新事业:Google.ai。