《卫报》:人工智能已出现种族和性别偏见

来源:    发布日期:2017-04-24 16:02:28   阅读量:0

人工智能已经出现了种族和性别偏见,但是这种偏见并非来自机器本身,而是计算机在学习人类语言时吸收了人类文化中根深蒂固的观念。

编译 斯眉

在过去的几年里,谷歌翻译等程序的语言翻译能力有了显著提高。这些成就得益于新的机器学习技术和大量在线文本数据的使用,并在此基础上对算法进行训练。然而,最新研究显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中的根深蒂固的偏见。

计算机科学家乔安娜·布莱森说:“很多人都认为这表明人工智能(AI)存在偏见。不,这表明我们有偏见,人工智能正在有样学样。”

但布莱森警告说,人工智能有可能强化现有偏见,因为算法与人类不同,可能无法有意识地抵制学到的偏见。“危险在于,你拥有的人工智能系统没有一处零部件明确需要依靠道德观念驱动,这就不好了。”她说。

上述研究发表在《科学》杂志上,重点关注一种名为“单词嵌入”机器学习工具,后者已经改变了计算机解读语音和文本的方式。有人认为,下一步科技发展将自然而然地涉及到开发机器的类人化能力,如常识和逻辑。

“我们选择研究单词嵌入的一个主要原因是,近几年来,它们已帮助电脑在破解语言方面取得了巨大成功。”普林斯顿大学计算机科学家阿尔文德·纳拉亚南说。

这种方法已经在网络搜索和机器翻译中使用,其原理是建立一套语言的数学表示式,依据与每个单词同时出现的最常用单词,将这个词的意思提炼成一系列数字。也许令人惊讶的是,这种纯粹的统计方法似乎能够捕捉到每个词所在的丰富的文化和社会背景,这是字典无法定义的。

最新研究显示,人类心理实验中一些更令人不安的隐性偏见也很容易被算法捕获。“雌性”和“女性”与艺术、人文职业和家庭的联系更紧密,“雄性”和“男性”与数学和工程专业更为接近。

人工智能系统更有可能将欧美人的名字与诸如“礼物”或“快乐”之类的愉快词语联系在一起,而非裔美国人的名字与不愉快词语联系起来。

研究结果表明,算法与隐式联想测试拥有同样的偏见,也就是把表示愉快的单词与白人面孔联系起来。

这些偏见会对人类行为产生深远的影响。一项先前的研究表明,相对于非洲裔美国人,如果申请者的名字是欧洲裔美国人,即使简历内容相同,后者所能获得的面试邀请将比前者多出50%。“如果你不相信种族主义与姓名存在联系,这就是例证。”布莱森说。研究中使用的机器学习工具是在被称为“通用爬虫”语料库的训练数据集中接受训练的,其中的8400亿个词语都是从网上公布的材料中选取的。当研究人员把训练数据集换成谷歌新闻的数据对机器学习进行训练时,也出现了类似结果。

牛津大学数据伦理和算法领域的研究人员桑德拉·沃彻认为,算法不仅代表一种威胁,也可能为采取适当方式解除和对抗偏见提供机会。

“原则上,我们可以建立一些系统对带有偏见的决定进行检测,然后采取行动,”沃彻说,并与其他人一起呼吁建立一个人工智能监管机构。“这是一项非常复杂的任务,但作为一种社会责任,我们不应回避。”■