揭秘Facebook的AI机器:AI已关乎存亡

AML在深度参与这个给Facebook的产品带来视觉、解读能力甚至说话能力的史诗般进程,扎克伯格认为这对于实现其对Facebook造福社会的愿景也至关重要。在扎克伯格有关建设社区的长篇人道主义宣言中,该CEO多达七次说到“人工智能”或者“AI”,全都是在说机器学习和其它的技术将如何保障社区的安全和消息灵通的语境中提及的。

实现那些目标不会是易事,这也是坎德拉当初在犹豫是否出任AML的职位时担心的事情。单个的机器学习无法解决所有人的问题,而你是要尝试成为上十亿用户发现信息和建立个人连接的主要来源。正因为此,Facebook在不断捣鼓决定用户在动态消息中看到的内容的算法——当你不确定什么才是最优的内容组合时,你要如何训练系统来提供最优的内容组合呢?“我想这是一个近乎无解的问题。”坎德拉说,“我们随机展示消息内容的话,意味着要浪费你的时间,是吧?而我们只显示来自一个朋友的消息内容的话,又等于是赢家通吃。你可能会一直陷入这种讨论当中,走两个极端显然都不是最优解决方案。我们尝试进行一些探索。”Facebook将会利用AI继续尝试解决这个问题。“目前机器学习和AI领域有许多优化那种探索方面的研究。”坎德拉说,听起来很有希望。

假消息问题

当Facebook发现自己被指是假消息传播的罪魁祸首时,它理所当然地号召它的AI团队来快速清理其服务上的假消息。乐昆指出,这是一项非比寻常的全员行动,当中甚至包括几乎是担当“顾问”角色的FAIR团队。FAIR已经打造了一项工具来帮助解决该问题:一个名为World2Vec的模型。World2Vec给神经网络增加了某种记忆功能,可帮助Facebook给所有的内容标上一些信息,如内容的来源和分享者。有了那些信息,Facebook就能够理解假消息的的分享模式,进而利用机器学习技术清除那些内容。“事实证明,识别假消息跟识别人们最想要看的页面并没有什么不同。”乐昆指出。

出自坎德拉团队的原有平台让Facebook能够更加快速地推出那些内容审查产品。它们实际上作用有多大还有待观察;坎德拉说,现在分享数据来说明公司在借助算法裁判减少假消息上做得有多好,还为时过早。但不管那些新措施是否奏效,该困境本身也提出了一个问题:用算法来解决问题——即便算法借助机器学习技术得到了改进——是否不可避免地会产生意想不到甚至有害的结果。肯定有人会说这种情况2016年就发生过。

坎德拉对此提出异议。“我想我们让世界变得更好了。”他说,还讲了一个故事。就在接受采访前一天,坎德拉给一个他仅见过一次的Facebook联系人打电话,那是他朋友的父亲。他看到那个人发布支持特朗普的内容,对此他觉得有些困惑。之后,坎德拉意识到自己的职责是根据数据做出决策,他缺少重要的信息。于是他发信息给那个人,请求进行通话。后者同意后,他们进行了电话通话。“这没有帮我改变现实,但却让我能够从很不一样的角度来看问题。”坎德拉说道,“要是在没有Facebook的世界,我永远都不会和他有交集。”

换句话来说,虽然AI之于Facebook非常重要,甚至关乎存亡,但它并不是唯一的答案。“我们的挑战在于,AI实际上还处于初生阶段,”坎德拉说,“我们才刚上路。”(乐邦)

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!