而花了15年的时间在IBM研究院和IBM Watson团队工作的专家Michelle Zhou,作为该领域的专家,其将AI分为三个阶段。
第一个阶段是识别智能,在更加强大的计算机里运行的算法能从大量文本中识别模式和获取主题,甚至能从几个句子获取整个文章的意义;第二个阶段是认知智能,机器已经超越模式识别,而且开始从数据中做出推论;第三个阶段的实现要等到我们能创建像人类一样思考、行动的虚拟人类才行。
而我们现在只处于第一阶段,“识别智能”,也就是说,人们说的“人工智能”里面有很大一部分其实是数据分析,还是原来的套路或者说是“旧瓶装新酒”而已。
无独有偶,如果说上述AlphaGo最终还是依靠强大的计算能力体现出所谓AI优势的话,那么接下来我们要说的谷歌和特斯拉的自动和无人驾驶汽车则在简单的数据分析上都出现了偏差。
最典型的表现就是此前一直被吹捧的谷歌无人驾驶汽车,今年在时速低于2英里的情况下竟然发生了交通事故,且按责任划分当属谷歌。
如果我们拿当时谷歌无人驾驶汽车发生事故时的选择和结果与此次人机大战中的每步棋的选择与结果比较的话,对于AI(例如AlphaGo)来说,前者不知道要容易多少倍(谷歌无人驾驶系统比人类最大的优势就是预判对方的行为,并做出应对)。
可惜的是,谷歌无人驾驶汽车在这次事故中体现出了智能系统没能完全判断准确人类的行为,还做出了最令人失望,可能也是最有悖于人类驾驶员的选择,并最终导致事故的发生。
至于特斯拉,在今年屡屡发生事故之后,其升级了到了Autopilot 2.0系统,并发布了第二段自动驾驶技术的演示视频。
官方声称Autopilot 2.0系统的硬件得到了相当巨大的提升,环车共配备8个摄像头,达到360度全车范围覆盖,最远检测可达250米。另外搭载了12个超声波传感器用于视觉系统的补充,对物体的距离、软硬精准度有更大的提升。
增强版的前置雷达可以穿越雨、雾、尘环境,丰富视觉系统的探测数据。特别是里面集成了Nvidia PX2处理芯片,运算能力比起第一代自动驾驶系统要高40倍。
尽管如此,通过视频分析中出现的诸如无论有没有来往车,每一次需要转弯时都会停下来再继续转弯;逼停了了一辆正常行驶的白色小车以及在完成一次转弯之后,突然无缘无故自动刹车等诸多问题看,Autopilot 2.0依然没有逃出计算能力和大数据简单分析结果呈现的范畴,并非真正的AI系统。
提及亚马逊的Echo,其实就是语音搜索和识别,而提及此领域,苹果的Siri、微软的Cortana或Google Now早就与智能手机绑定,但我们看到更多的实际应用场景是人们经常以搞笑的方式误听或者误解语音指令。
关于语音搜索,谷歌依然在致力于克服诸如语音识别、自然语言理解、对话理解的挑战上,而这些挑战早在3年前就已经存在。而从亚马逊Echo的诸如语音查询天气或新闻、播放Spotify音乐、预约Uber叫车、订购披萨外送等应用看,这些在手机上早已实现,其有别于手机的AI特性究竟体现在哪里呢?
相反,尽管语音识别已经取得了长足进步,但多数人仍会沿用手势操作和触摸界面。在可预见的未来,这种趋势恐怕难以改变。究其原因,主要在于语音识别服务需要依赖庞大的数据和具有捕捉自然状态下的真实对话的能力才是真正的AI。
所以尽管在语音识别上,有些厂商称其识别率已经实现90%以上,但基于自然状态下真实对话的能力要求,就算是95%的准确率也不足以满足人们的需求。而在被问及何时才能通过自然语言与数字助理交流,并得到满意的答案时,即便是对最高水平的神经网络学家而言,这项技术仍然有很多谜团有待解开。
有很多工作只能通过不断试错来改进,没有人敢保证某项技术调整可能产生什么样的后果。根据现有的技术和方法,这一过程大约要耗费数年时间,甚至有专家称,我们永远无法知道何时能够实现突破,何时能让Alexa和Siri与人类展开真正的对话。