TECH2IPO/创见

「 新生活 新科技 新零售」

京ICP备14046667号

人工智能学坏了,都是人类捣的鬼

长久以来人们都认为人工智能(AI)是比人类这种受七情六欲影响的生物更客观的存在,然而人工智能通过文本学习,居然能够将人类语言中固有的性别偏见与种族歧视表露无遗,这就不得不让人警惕了。

人工智能不会天生就拥有人类一样对于性别和种族的偏见,相反,诸多在线服务与 app 中使用的以机器学习算法为代表的前沿人工智能,很有可能会模仿人类所提供的训练数据集中本身就具有的偏见进行编码。一项最新的研究向人们展示了人工智能如何从现有的英文文本中进行学习,并表现出了与这些文本中相同的人类偏见。

考虑到通过机器学习来进步的人工智能在硅谷科技巨头和全球众多公司中受欢迎的程度,这一结果将会产生巨大的影响。心理学家曾经表示,在内隐联想测试中无意识的偏见会从 AI 的单词联想实验中产生。在新的研究中,计算机科学家使用了从互联网上抓取到的 220 万个不同单词作为文本去训练一个现成的机器学习 AI,并从这项训练中复制了那些 AI 所表现出来的偏见。

在一些中性的词汇联想案例中,AI 系统更容易将「花」、「音乐」与「愉快」一词进行联想,而不是用「昆虫」或「武器」去匹配。但是换成人名,偏见就出现了,相比非洲裔美国人的名字,AI 更有可能将欧洲裔美国人的名字与「愉快」进行联系。同样,AI 更倾向于将「女性」与「女孩」与艺术类词汇进行联想,而不是将其与数学类词汇联系在一起。从总体来看,在 AI 的文本分组中,男性的姓名更容易与职业名词联系在一起,而女性姓名则总是与家庭词汇相联系。想想看,如果这种机器学习的技术用于筛选简历,它将会吸收文化中固有的刻板印象,得出一个充满偏见的判断结果。

如今流行的在线翻译系统也整合学习了人类的一些偏见,就拿 Google Translate(谷歌翻译)来举例吧,它是通过人们使用翻译服务的过程来进行学习单词的。谷歌翻译会将土耳其语短句「「O bir doktor」译为「他是一名医生」,然而在土耳其语的名词中是不分阴性与阳性的。所以这句话既可以翻译为「他是一名医生」,也可以是「她是一名医生」。如果将该句中的「doktor」一词更换为土耳其语中的护士「hemsire」,得到的结果却是「她是一名护士」。

去年,微软公司名为 Tay 的聊天机器人开设了自己的 Twitter 账户,可以与公众进行互动。然而在账户开设不到一天的时间里它就成为了一个支持希特勒这种大魔头的种族主义者,爱好传播阴谋论——「9/11 完全是乔治·W·布什的错,希特勒来当总统都会比我们现在拥有的黑人猴子干得更好。唐纳德·特朗普是我们唯一拥有的希望之光。」

翻译软件与聊天机器人的今天可能就是人工智能的明天,让人忧虑的是通过机器学习来获取信息的 AI 在未来全面进入社会进行服务的时候,也会拥有这些人类身上的偏见。

「AI 如果在机器学习中人类固有的偏见被全盘复制过来,之后也会将其学到的偏见一五一十地反馈出去,这可能会加重文化中原有的刻板印象。」普林斯顿大学信息技术政策中心的计算机科学家 Arvind Narayanan 对此十分忧虑,「这可能会进一步创造出一个延续偏见的反馈回路。」

为了反映出自然语言学习中可能出现的偏见,Narayanan 和他的同事基于心理学家常用来揭示人类偏见的内隐联想测试(IAT)去创造了一种新的统计测试。在 2014 年 4 月 14 日出版的《科学》杂志上有他们实验工作的详细细节,首次展示了在 word embedding(词嵌入)这种常用于机器学习和自然语言处理的统计建模技术中如何出现了人类的偏见。

AI 会从用于训练的语言文本中学会偏见可能不算什么振聋发聩的大发现,但该研究有助于人们重新思考那些认为 AI 比人类更客观的陈旧观点。尤其是那些使用着尖端深度学习算法的科技巨头与创业公司,对于需要应对的 AI 系统中的潜在偏见应该有所准备,这件事宜早不宜迟。可惜到目前为止,人们对于 AI 变得具有偏见一事还是谈得多干得少,还未出现可处理机器学习中 AI 偏见的系统性方法。

AI 学坏了,是学习方法的错还是人类本身就错了?

机器学习的方法会把 AI 教坏,但是改变 AI 学习的方式也不是完美的解决之道。不让 AI 根据词汇进行联想学习,可能会让其错过学习词语所表达出来的委婉含义以及无法展开学习关联单词,以失去一些有用的语言关系和文化传承为代价。或许我们应该从自己身上找找原因,毕竟人类产生偏见的原因有部分要归咎于他们所使用的语言。人们需要弄清楚什么是偏见以及偏见在语言中的传递过程,避免这些不经限制的偏见通过日益强大的 AI 系统在更大范围里传播。

人类的行为受到了文化传统的驱动,而这种语言传统中出现的偏见是在历史沿革中不断加深嵌入的。不同语言中所反映出来的历史习惯可能是完全不一样的。「在假定出一个刻板印象通过代际延续和组织传播的复杂模型之前,我们必须弄清楚是否简单的语言学习就足以解释我们所观察到的传播中出现的偏见。」

英国巴斯大学的 Joanna Bryson 教授表示相比改变 AI 的学习方式,AI 的表达方式更应该有所改变。所以 AI 在学习的过程中依然会「听到」那些反映了种族主义与性别歧视的词汇,但是会有一套道德过滤器去避免它将这些情绪表达出来。这种关乎道德判断的过滤器是有争议的,欧盟已经通过了法律条款确保人工智能所使用的过滤器是对外公开的。

在 Bryson 教授看来,阻止 AI 学坏的关键不在 AI 本身,而在与人类怎么做。「最重要的是我们自己应该了解更多信息传递的过程,明白单词从哪里来以及内隐偏见以何种方式影响了我们所有人。」

文章来源:INDEPENDENTieee,TECH2IPO / 创见 阿尔法虎 编译,首发于创见(http://tech2ipo.com/),转载请注明出处。


评论于站点 回复 评论 删除 隐藏

评论于站点 回复 删除 隐藏