AI报告:人工智能究竟对人类有何影响

  除了“替代工人”外,AI系统也对劳动力市场也有其他多重影响。例如,它们改变了权力关系、就业预期和工作本身的角色。这些变化已经对工人产生深远影响,因此在引入AI系统时,在考虑如何表述公平和不公平做法上,理解这些影响很重要。例如,如果开发实际作为管理层行事的AI系统的公司,可被视为科技服务公司,与雇主不同的是,职员可能不受现有法律保护。

  3、在设计和部署阶段,支持研究开发衡量和评估AI系统准确性和公平度的方法。同样地,也支持研究开发衡量及解决一旦使用出现的AI错误和损害的方法,包括涉及通知、矫正和减轻这些因AI系统自动决策导致的错误和损害的问责制。这些方法应优先通知受自动决策影响的人们,并开发对错误或有害判断提出异议的方法。

  AI和预测性系统日益决定了人们是否能获得或失去机会。在很多情况下,人们没有意识到是机器而非人类在做出改变人生的决定。即使他们意识到,也没有对错误界定提出异议或拒绝有害决策的标准流程。我们需要在研究和技术原型化上投资,确保在AI系统日益用于做出重要决策的环境中,确保基本权利和责任受到尊重。

  4、澄清无论是反电脑欺诈和滥用法案还是数字千年版权法案不是用于限制对AI责任的研究

  为了进行对检验、衡量和评估AI系统对公共和私人机构决策的影响所需的研究,特别是有关如公平和歧视的关键社会关切,研究人员必须被清楚地允许跨大量域名并通过大量不同方法测试系统。然而,某些美国法律,如反电脑欺诈和滥用法案(CFAA)和数字千年版权法案(DMCA),规定与电脑系统甚至互联网上公开可访问的电脑系统“未授权”互动为非法,可能限制或禁止这种研究。这些法律应该澄清或修改,明确允许促进这种重要研究的互动。

  5、支持在现实环境中AI系统对社会经济生活影响的强大评估和评价方法的基础性研究。与政府机构合作将这些新技术集成到他们的调查、监管和执法能力中。

  我们当前缺乏对AI系统社会经济影响评估和理解的严格做法。这意味着AI系统在融合到现有社会经济领域,部署在新产品和环境中,却不能衡量或精确计算它们的影响。这种情况类似于进行试验却不愿记录结果。为确保AI系统带来的益处,必须进行协调一致的研究开发严格的方法,理解AI系统的影响,当使用这种方法时可帮助形成跨部门和政府内部的标准做法。这种研究及其结果可比作早期预警系统。

  6、在与这些人联合开发和部署这种系统时,与受自动决策应用和AI系统影响的社区代表及成员合作,联合设计可问责的AI。

  在很多情况下,这些受AI系统影响的人将是对AI系统环境和结果最权威性的专家。特别是鉴于当前AI领域缺乏多元化,那些受AI系统部署影响的人实际上从事提供反馈和设计方向,来自反馈机制的这些建议可直接影响AI系统的开发和更广泛的政策框架。

  7、加强行动提高AI开发者和研究者的多元化,拓宽和融合所有观点、环境和学科背景到AI系统开发中。AI领域应该也结合计算、社会科学和人文学,支持和促进针对AI系统对多个观点影响的跨学科AI研究。

  计算机科学作为一个学科领域缺乏多样性。特别是严重缺乏女性从业者,在AI里这种情况更为糟糕。例如,虽然有些AI学术实验室由女性掌管,但在最近的神经信息处理系统大会上,与会者只有13.7%是女性,这次大会是该领域最主要的年度大会之一。缺乏多元化的圈子不大可能会考虑这些不在其中人的需求和关注。当这些需求和关注成为部署AI的社会经济机构的中心时,理解这些需求和关注很重要,AI开发反映了这些重要的观点。关注开发AI人群多元化是关键,除了性别和代表受保护人群外,包括除计算机科学外各种学科的多元化、建立依赖来自相关社会经济领域学习的专业知识的开发实践。

  在计算机科学之外和计算机科学之内AI子领域的社会经济领域,进行AI影响的彻底评估将需要多数这种专业知识。由于很多环境下AI被集成和使用——如医学、劳动力市场或在线广告——本身是学习的丰富领域。为真正制定AI影响评估的严格流程,我们将需要跨学科的协作,建立新的研究方向和领域。

  8、与专业组织如美国人工智能进步协会(AAAI)、美国计算机协会(ACM)和电气及电子工程师协会(IEEE)合作,更新(或制作)专业道德准则,更好地反映在社会经济领域部署AI和自动化系统的复杂性。为任何想掌握计算机科学的人开设公民权、公民自由权和道德培训课程,反映了教育中的这些变化。同样,更新专业道德准则约束引入AI系统的专业人士,如适用于医生和医院工作者的道德准则。