4)相互理解。大多数机器学习系统无法用人类的语言解释他们为什么要做决定或者下一步要做什么。但研究人员正在努力解决这一问题。美国军方的国防高级研究计划局最近宣布了一项计划,将大幅投资于可解释的人工智能XAI,以使机器学习系统更准确、可预测、值得信赖。有了XAI,你的数字助手才有可能告诉你,它选择了一条特定的驾驶路线,因为它知道你喜欢走小路,或者它建议换一个词,这样你的电子邮件的语气就会变得更友好。此外,在更多的场景中,“机器人会知道什么时候寻求帮助,”Manuela Veloso说,他是卡内基梅隆大学的机器学习部门的负责人,他称这一技能是“共生自主”。研究人员正在开发人工情感智能或情感人工智能,以便我们的代理也能更好地理解我们。像Affectiva和Emotient(被苹果收购)这样的公司已经创造了一种能读取用户面部表情的系统。IBM首席技术官Rob High表示,IBM沃森人工智能系统不仅可以分析情感,还可以分析文本的语调,并随着时间的推移,对个性进行分析。最终,人工智能系统将分析一个人的声音、面部、姿势、言语、语境和用户历史,以更好地了解用户的感受和反应。Affectiva联合创始人兼首席执行官Rana表示,下一步将是我们的手机和电视上的情感芯片,可以实时做出反应。她说:“我认为,在未来,我们会假定每个设备都知道如何解读你的情绪。”
5)建立情感纽带。人们可以和Roomba智能扫地机器人或其他相对简单的机器人形成情感纽带。人工智能既能用人声对话又能深层次地理解人类,那么人类和人工智能之间,应该存在何种关系?未来主义者Spivack描绘了人与虚拟机器人终生为伴的场景。你会给小孩一个智能的玩具,这个玩具会了解她,指导她,和她一起成长。“它最初只是一个可爱的毛绒玩具,”他说,“但它演变成一种生活在云端的东西,它们可以通过手机上联系。”
然后到2050年,或者其他什么时候,可能是会被植入大脑。在这样一个场景会产生许多问题,Spivack问道:“谁拥有我们的代理机器人?”“它们是谷歌的财产吗?”我们最老的朋友会被注销或重新编程吗?失去了深深信任的助手,我们会感到无助吗?El Kaliouby看到了很多关于自主权的问题:一个助理能代表我们做什么?它能不能为我们买东西?如果我们要求它做一些非法的事情,它能不能推翻我们的命令?她也担心隐私问题。如果一个人工智能代理感觉一个少年很抑郁,它能通知他的父母吗?Spivack说,我们需要决定代理机器人是否有类似于医生对病人或律师对客户的某种特权。他们能把我们报告给执法部门吗?他们能被传召吗?如果有安全漏洞怎么办?一些人担心,先进的人工智能将接管世界,但人工智能发展协会的Kambhampati认为,恶意的黑客攻击的风险更大。考虑到我们可能会和我们的助手们建立亲密关系,如果坏人入侵助理机器人,那么我们最好的助理将可能会成为我们最大的负担。
登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!