摩擦压力机厂家
免费服务热线

Free service

hotline

010-00000000
摩擦压力机厂家
热门搜索:
技术资讯
当前位置:首页 > 技术资讯

AI越来越有性别歧视别埋怨机器人其实都是人类惹的祸-【资讯】

发布时间:2021-09-21 19:18:05 阅读: 来源:摩擦压力机厂家

在过去的几年中,Google翻译等程序解读语言的能力大大提高,Google甚至正在开发算法对思想进行编码,尝试希望十年内可以使得计算机具有“常识”。

这得益于大量可用的在线文本数据和新的机器学习技术。在AlphaGo接连斩落棋坛大神的今天,人们欣喜地看到了这些年来人工智能飞跃式的进步。

然而,让我们感到担忧的是,随着机器学习越来越拥有类似于人类的语言能力,它们也吸收了人类语言使用模式中根深蒂固的偏见和歧视。

日前,普林斯顿大学计算机科学家Arvind Narayanan在Science杂志上发表题为《Semantics derived automatically from language corpora contain human-like biases》(语料库自动导出的语义中包含人类偏见)的论文,认为人工智能已经正在从文本学习中获得人类潜在的种族和性别偏见。

这篇文章重点介绍了一种被称为“词语嵌入”的机器学习工具,它已经在改变计算机解释语言和文本的方式。

根据Arvind Narayanan是的解释,他们选择学习“词汇嵌入”的一个主要原因是这项技术在过去几年里在帮助电脑理解语言方面取得了惊人的成功。

“词语嵌入”将词的含义分解为一系列的数据(称为“单词向量”),通过分析词语出现的频率以及构建的数学模型来进行深度学习。

然而,令人惊讶的是,这种纯粹的统计学方法似乎也捕捉到了词汇背后丰富的文化和社会背景。

例如,在数学模型构建的“语言空间”中,“花朵”的词意与“愉悦”相联系,而“昆虫”更接近于与不愉快的词语相关联。这更像是人们对于这两个词意的主观情绪在AI上面的映射。

Arvind Narayanan的这篇文章还表明,心理学实验中一些更令人不安的隐含偏见也很容易被算法所习得。譬如说,“女性”这个词大多与艺术、人文职业以及家庭关系密切,而“男性”这个词更接近于数学和工程专业的范畴。

更让人惊讶的是,AI系统更有可能将欧洲与美国人的名字与诸如“礼物”或“快乐”等积极愉快的词汇联系起来,而非裔美国人的名字更常见于与不愉快的话语相关联。

机器算法的偏见歧视并不是一个崭新的问题。早在20世纪70、80年代,英国的圣乔治医学院就使用电脑程序对申请人资料进行初步筛选。

该计划模拟了过去录取人员的选择模式,而结果拒绝的60位左右的申请人大多是妇女或拥有非欧洲人的名字。

英国的种族平等委员会最终决断,圣乔治医学院在这场招生过程中存在种族和性别歧视。

这既不是算法的疏忽大衣,更不是程序员们的恶意操作,而是人类心底根深蒂固的“偏见”无法抹除,而计算机程序加剧了这个问题,并给了它看似客观的外套。

这正如文章的联合作者、巴斯大学的计算机科学家Joanna Bryson所说:“很多人都在说这个实验的结果表明AI是有偏见的。不,这正显示出我们是有偏见的,而AI正在学习它。”

Bryson还警告说,AI的学习能力会潜在地加强现有的偏见。与人类大脑不同,算法本身可能无法有意识地抵消这样一种习得的偏见。

谈及如何修正AI习得的偏见,文章的另一位联合作者Caliskan提出,解决方案并不一定要改变AI学习的算法。AI只是客观地通过算法捕捉到我们生活的世界,只是我们的世界里充满了歧视与偏见。改变算法的方式只会使其效果更差。相反,我们可以从另一端入手,修正AI算法学习之后的成果,让它在二次学习后不断习得人类的道德观念。

例如,在使用Google翻译的时候,你就可以对它进行调整,改善AI翻译的质量:如果你看到“医生”总是翻译成“他”,而“护士”总是被翻译成“她”,你可以身体力行地作出改变。

>>进入2017秋冬服装品牌订货会专题

绍兴市消音室怎么样

保山隆阳水上挖机出租多少钱一天

6SE64302UD322DB0西门子MM430变频器上海代理商

扬州高邮水陆挖掘机租赁厂家

智慧养猪管理系统东莞母猪耳标批发

一站式采购铁三角AT2020USB+心形指向性电容话筒