在即将正式发布的iOS 10中,Siri的声音是最后一个被机器学习改造的部分。同样,深度神经网络替代了原先授权的技术。Siri的声音来自一家语音中心收集的录音数据库,每句话都是语音段拼贴的结果。机器学习让语音变得平滑,听起来更像一个真人。
这看起来只是很小的细节,但更自然的声音能为Siri带来很大的改变。Gruber认为,“如果声音质量更高,人们会感到更加可信。更好的语音能吸引用户,让他们更常使用。”
使用Siri的意愿,以及机器学习在技术上的提升,都在苹果向开发者开放Siri的过程中十分重要。许多人注意到,苹果在Siri上的合伙量只有两位数,远远落后于亚马逊的Alexa,后者称外部开发者帮助开发了1000多项技能。苹果认为这种比较没有意义,因为亚马逊用户要使用特定的指令方式,才可用到那些技能。苹果表示,Siri在与Uber和SquareCash等服务的整合上会更自然。
与此同时,苹果对Siri的改善也得到了回报,用户发现了一些新功能,也感到常用的查询变得更准确,而相应的,查询数量也不断增长。
五
或许,苹果使用机器学习技术中遇到的最大问题,是如何坚持保护用户隐私的原则。苹果会加密用户信息,包括公司律师在内的任何人都无法读龋FBI也不能,即便获得了批准(按:关于苹果与FBI的对战,可阅读雷锋网(搜索“雷锋网”公众号关注)的解读)。它还表示,不会收集用户信息用于广告目的。
从用户的角度上看,这种行为值得尊敬,但这对吸引顶尖AI人才并无帮助。一位苹果前员工表示,“机器学习专家想要的就是数据。但出于保护隐私的立场,苹果总会有所干预。这种做法是否正确暂不讨论,但外界会认为苹果不是铁杆AI粉。”
苹果高管并不认同这种观点。他们认为无需将用户信息放在云端,或存储训练神经网络所用的数据,也能得到提升机器学习表现的数据。Federighi认为,“外界一直存在错误的观点,做出了错误的妥协,我们想让他们走上正轨。”
这里有两个问题。第一个涉及到在机器学习系统中处理个人信息,当个人详细信息是由神经网络收集到的时,这些信息会怎么样?第二个涉及到收集训练神经网络识别行为所需的数据,不收集个人信息,又将如何做到训练呢?
苹果对两者都有答案。Cue表示,“有人认为,我们用AI做不了这些事,因为没有数据。但我们找到了获取所需的数据,同时保护隐私的方式。这是我们的底线。”
对于第一个问题,苹果的解决方式是利用其独特的对软硬件的控制。简单来说,多数个人信息仍保留在Apple Brain中。Federighi表示,“我们会将部分最敏感的信息保留在设备上,这时机器学习完全在本地运行。”他给出的例子是应用推荐,即在主屏上右滑时会出现的图标。在理解状态下,这些应用就是你意图想用的。这种预测基于许多因素,基本都与用户的行为有关。这一功能确实有用,Federighi表示,预测用户想用图标的概率有90%。
苹果存在设备上的其它信息可能包括了最个人的信息:用户使用iPhone键盘输入的文字。使用经过神经网络训练的系统,苹果能识别出关键事件和项目,如航班信息,联系人及约会。不过这些信息都存在手机上。即使是备份在苹果云上的信息,也会经过处理后不能仅由备份信息进行还原。“我们不想把信息存在苹果服务器上,公司没必要知道你的爱好或你在哪。”
苹果也在尽量减少整体上保存的信息。一个例子是,在交谈中有人可能提到一个词,这或许需要搜索。其它公司很可能在云端分析整段对话,从而识别出那些词语,但苹果设备无需这些数据远离用户就能识别出来。这是因为系统会不断与手机中的知识库进行搜索匹配。
Federight表示,“知识库很精练,但也相当完善,储存了成千上万的地点和实体。”苹果所有的应用都能用知识库,包括Spotlight搜索应用,地图和浏览器。它也能帮助自动纠错,一直在后台运行。
机器学习圈的一个疑问是,苹果的隐私限制是否会阻碍神经网络算法,这也是上文中提到的第二个问题。经过大量数据训练,神经网络才能准确。如果苹果不采集用户行为数据,又从哪里得到数据呢?与其它公司一样,苹果用公开数据集训练神经网络,但总有需要更新更准确的数据的时候,而这又只能从用户中来。苹果的做法是在不知道用户是谁的情况下收集信息。它会对数据匿名处理,随机打上识别信息。