算法可能在各个方面出现问题。一个最常见的错误就是「过度拟合」,通常发生在一个算法过于复杂并缺乏合理假设时。在这种情况下它们无法从大量无关数据中(噪声)分辨出有用的相关性(信号),而是识别出了「幽灵」参数或似是而非的相关性。想象一下用一个敏感的麦克风对古典音乐会录音。过度拟合将把周围的背景噪音视为与管弦乐队发出的声音同等重要。就像 Babak Hodjat 所警示的,「人们可能错误的使用机器学习并且不做检验。如果你使用一个机器学习算法但没有充分检验它,那可能就会存在一些过度拟合,使算法今天看上去不错,但明天就可能会大错特错。这是需要仔细检查的。」
程序错误风险提高了使用新程序的压力。像之前提到的,差异化对于一个人工智能交易员的成功是很关键的。做出第一款成功的应用,机构将得到一个独一无二的可以盈利的机会——一个没有竞争的市常接下来的风险就是其他机构将在市场上应用这个成功的策略。谷歌前工程师,目前任机器智能研究机构(Machine Intelligence Research Institute)研究人员的 Nate Soares 在接受金融时报采访时称,「将足够强大的保障措施编入高级人工智能,只有5%的可能性。」
2)数据、责任和法律风险
机构是否已了解与新型金融科技相关的法律风险目前还有很大不确定性:有47%的被调查者对此没信心。Price 先生并不惊讶。「原因在于这种技术还处于初期阶段,而且还在不断进步。人们对可能的风险感到谨慎和些许不确定也正是反映了这种技术处于初期阶段。」
一个风险是公司责任。做出糟糕的投资决策可能是由于数据质量差、对公司业绩分析失误、或算法有瑕疵,这都会引起投资者大幅亏损。机器学习模型对信用风险做出糟糕的决策时:出借方可能遭受财务损失、或潜在融资方的声誉受损,责任问题就可能出现。当这种情形发生时由谁承担责任目前还不明晰——金融机构自身、算法的作者、交易平台、数据提供者、或是其他人?
机器学习的智能及数据处理特性也可能使数据保护和隐私风险达到另一个高度。个人投资数据或敏感的公司数据无论因为事故(被黑客获取)还是因为制度(被市场管理者和政府获取)而落入其他人手中,都是互联网时代的一个非常常见的风险。当机器学习模型为达到更好效果而收集更多的数据时,这种风险也将随之增大。机构将越来越需要了解数据隐私与消费者保护法规之间的紧密联系,以及扩大的法律管辖范围,例如欧盟Cookie指令(EU Cookie directive)。贝克·麦坚时律师事务所(Baker & McKenzie)合伙人 Adrian Lawrence 预计获取数据的能力将对人工智能系统的范围及影响起着核心作用,她称「数据,及使用和获取数据的各类规则及过程,位于具有颠覆性的金融科技领域的核心位置。即使是最先进和最智能的算法及模型在不能有效、安全和合法的获取详细、准确、及时的数据时,也将变得毫无用处」。
除了法律风险,这些被调查者对于他们所在的机构是否了解人工智能的影响也是明显缺乏信心。49%的被调查者不能确定他们的机构了解了人工智能的其他重大风险。只有32%是确定的。考虑到这项应用还处于早期发展阶段,这项调查表明人工智能将会向机构展示出一系列风险,而其中的大部分还尚未定义。
3)对人工智能的过度依赖
通过这些例子,调查受访者似乎希望机器学习将帮助他们在某些情况下降低风险。近六成(58%)的人认为机器学习将「大大提升」他们的风险评估流程。比如,机器学习技术可以被用来警示基金经理去关注他们已投的企业中新出现的一些弱点(参见上图「了解外汇风险预测收益」)。
来自 Baker & McKenzie 的 Astrid Raetze 还期望消费信贷风险评估可以通过对客户进行更全面的风险剖析来加强。Raetze 女士表示,「如果能得到正确的部署,人工智能也可以在一些领域降低一定的风险。市场失当行为,反洗钱(AML)行为和了解你的客户(KYC)行为都是地方监管机构可以利用人工智能来改进监管和审查的。」基于机器学习的分析也可以识别某些客户活动的具体方式,甚至可能辨别某种形式的渎职。这有助于解释为什么相对于其他领域,受访者更希望能在未来三年内,机器学习能应用在风险评估领域。