赞助本站
公众号(smartman163)
每一项技术进步都带来了一股恐惧和不确定性。
一、克服毫无根据的恐惧
我们看到这种情况反复出现。自工业革命以来,人们一直在思考新技术对他们生活和工作的影响,今天我们看到,每一次人工智能突破之后,恐惧就会出现。尽管人工智能近年来取得了巨大进步,但其仍处于早期阶段,这带来了一定程度的不确定性。这种不确定性只有在出现问题或预期大于现实时才会加剧,从而导致误解和焦虑。作为一名直言不讳的人工智能评论家,Elon Musk利用这一误解,描绘了一场即将到来的人工智能大灾难的画面,尽管他将强大的人工智能嵌入特斯拉的汽车中。所有这些都表明,在某种程度上,我们发现自己陷入了一个危险的、不必要的炒作周期。
我们必须克服这种毫无根据的恐惧。现实是这样的:今天没有可信的研究支持这些末日场景。他们是令人信服的小说。我喜欢看《终结者》,就像和我同龄的其他孩子一样,但这些有趣的场景无法让我们应对人工智能带来的直接威胁。
我们面临的主要问题是偏见和多样性,这些问题比奇点和机器人暴动更直接,也更人性化。这些问题包括嵌入的偏见和缺乏多样性的领域和数据集。用有偏见的数据训练人工智能,我们可能会无意识地在人工智能中灌输我们自己的偏见。如果不加以控制,偏见会导致人工智能对某些人有利,而其他人则会付出代价。如果不增加领域的多样性,一些人将对人工智能创造背后隐藏的决策产生更大的影响。随着人工智能整合到对个人生活影响更大的决策过程中,例如招聘、贷款申请、司法审查和医疗决定,我们将需要警惕它吸收我们最坏的倾向。
二、没有无辜的数据
当人工智能触及最基本的人类系统时,我们需要记住它不是在真空中运行。人工智能依赖于海量数据,强大的算法可以分析这些数据,然后得出具有启示性的洞见。但是人工智能依赖训练数据。如果数据存在偏见,比如带有种族主义或性别歧视的语言,这会影响结果。无论你训练人工智能什么,结果都会被放大,因为算法会无数次地复制它的决策。在数据中未被发现的偏见逐渐显现,令人不安,这是人工智能系统开始输出反映我们自己最根深蒂固的偏见的结果。与机器人暴动不同,有偏见的人工智能并不是一个假设的风险。有偏见的人工智能在选美比赛中选择了浅色皮肤的选手,而非深色皮肤的选手。一种带有偏见的谷歌算法将黑脸归类为大猩猩。
在一项研究中,一个有偏见的人工智能筛选简历,会更倾向于欧裔美国人(相对于非裔美国人)。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学和科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。就像我们自己的点击让我们处在自己的Facebook过滤器泡泡里一样,带有偏见的数据创造出了传播人类偏见的人工智能。
我们不能因为服从人工智能而逃避责任。我们越多地将这些系统纳入我们的决策过程,我们就必须做得越多,以确保我们能够负责任地使用这些系统。解决数据偏见问题的第一步是在数据收集过程中建立更大的透明度。它是从哪里来的?它是怎么收集的?是谁收集的?我们还需要解决模型中的偏见问题。通过让我们的模型的内部工作更加清晰,我们将能够发现我们之前没有发现的数据中的偏见。
如果我们能够恰当地解决人工智能中存在的偏见问题,那么人工智能将继续成为创造一个更美好世界的有用工具。虽然解决世界上数十亿人的偏见问题可能是完全不可行的,但我们完全有可能创造出比创造者更少偏见的人工智能。
虽然人类的偏见造成了这些挑战,但人类的洞察力可以解决这些问题。算法在清除虚假新闻和识别歧视方面取得了巨大进步,但人类的监督将成为构建更公平的人工智能系统的必要条件。在正在进行的“关于人工智能将如何改变工作”的讨论中,我们很容易想到一个新角色出现:人工智能监视器。我们仍然需要人工检查人工智能的输入和输出。