Download as pdf or txt
Download as pdf or txt
You are on page 1of 12

种族主义是一个长期存在的社会问题,它涉及到对某些人群的偏见和歧视。在当今

世界,种族主义仍然是一个普遍存在的问题,它在社会各个方面都有着负面影响。
因此,撰写一篇关于种族主义的论文是非常重要的,它可以帮助我们更深入地了解
这一问题,并提出解决方案。
撰写种族主义论文需要充分的研究和深入的思考。它可以帮助我们探讨种族主义的
根源,了解它如何影响个人和社会,以及如何应对这一问题。通过撰写论文,我们可
以帮助他人认识到种族主义的存在,并促进公众对这一问题的关注。
在撰写种族主义论文时,我们可以从不同的角度来探讨这一问题。例如,我们可以通
过历史角度来研究种族主义的起源和发展,从社会学角度来分析种族主义对社会的
影响,或者从心理学角度来探讨种族主义对个人的影响。
撰写一篇优秀的种族主义论文需要良好的写作技巧和专业知识。如果你需要帮助来
完成这样的论文,我强烈推荐使用HelpWriting.net这个网站。它是一个专业的论文写作
服务平台,拥有经验丰富的作者团队,可以为你提供高质量的论文写作服务。
通过HelpWriting.net,你可以轻松获得一篇优秀的种族主义论文。他们的作者具有丰富
的研究经验和专业知识,可以为你提供定制的论文写作服务。此外,他们提供的论文
都是100%原创且经过严格的编辑和校对,确保质量和准确性。
不要让种族主义阻碍你的学术成就,也不要让论文写作成为你的负担。通过
HelpWriting.net,你可以轻松获得一篇优秀的种族主义论文,为你的学术成功打下坚实
的基础。立即访问HelpWriting.net,开始你的论文写作之旅吧!
七代人以前的祖先,只有一半人的DNA是保留在你现在保有的DNA当中。所以有
可能,你在基因上与近至18世纪的真实的祖先是没有关联的。 在标准的定量社会科学
中,机器学习被用作分析数据的工具。他们的工作表明,机器学习的工具(这里的词向
量)本身是如何成为社会学分析的有趣对象。他们相信这种范式的转变可以导致许多
富有成效的研究成果。此外,附录中的图33,词向量偏差与拉丁裔名字的相关关系是
一个有效的控制组。它显示了更稳定的词向量变化,而不是在亚洲和俄罗斯关联词
汇中发现的急剧转变。这种模式符合这样一个事实,即整个20世纪的许多事件影响了
拉丁裔移民到美国的故事,但没有一个单独的事件扮演过于重大的角色(20)。 一个中
国科研团队借助功能磁共振成像进行的实验表明,当白人看到另一个白人被针刺痛
的表情时,他(她)大脑中设身处地感受痛苦的神经回路的活跃程度,要当他(她)看
到亚裔人作出这个表情时更高。同样,当亚裔人看到同种族的人感到痛苦时,其反应
也比看到白人感到痛苦时更加强烈。 页数:136 作者同样追踪了职业偏差分数随时间推
移的情况,并将其与人口普查数据中的职业参与比例进行比较;图1d中,纵坐标是职
业参与比例数据(蓝色实线),其中分母是白人职业参与比例,而分子则是亚裔美
国人,绿色实线是在 COHA语料库训练的词向量所获得的偏差值。所有职业的就业占
有比例的增加,与词向量的偏差基本成正比。为了训练系统,需要给计算机显示许多
不同对象的度量。你给计算机系统提供每一个对象的度量,告诉计算机这些对象什
么时候是书,什么时候不是书。在不断地测试和改进之后,系统应该能够知道什么表
示一本书,并且,可以期望它将来能够根据这些指标去预测一个对象是否是一本书,
而无需人工帮助。让我们来看看每个人都可以访问的数据源:互联网。一项研究
发现,通过教人工智能在互联网上抓爬——仅仅阅读人类已经写下的东西——这个系
统会对黑人和妇女产生偏见。 我们知道,那些擅长爆发力运动项目的人,往往有更高
比例的快缩肌(fast-twitch )细胞,它们对能量的分解更快。在约翰·多维迪奥看来,这种
无意识的种族主义之所以如此普遍,是因为它有一种“适应”意义。也就是说,它使我
们得以快速适应具有潜在危险的新环境。例如,当遇到未曾谋面的陌生人的时候,我
们会本能地问自己两个问题。首先,那人究竟是敌是友?其次,他(她)是否有实现其
友好或敌对意图的手段?我们需要迅速回答这两个问题。 1960年代,由于1965年《移民
和国籍法案》的通过,亚洲移民大量增加;1980年代,移民持续增加,第二代亚裔美国人
开始出现(19)。 他们会用主流的遗传系谱学,比如像祖先DNA测试等,来“证明”他们
是100%的白人或者非犹太人。另一个训练数据是怎么在算法中产生性别歧视的例子
发生在几年前,当时亚马逊试图使用人工智能构建一个简历筛选工具。据路透社
报道,该公司希望技术能使求职申请的分类过程更加高效。当一种算法同时考虑多
种身份因素时也是如此:例如,一种工具可能被认为对白人女性相当准确,但这并不
一定意味着它适用于黑人女性。接下来,作者考察了1910-1990年间词向量的变化,观
察结果是否可以反映妇女职业参与比例的变化。 我们可能需要新的法律来规范人工
智能。在美国,有一项法案将迫使公司让联邦贸易委员会(FTC)检查他们的系统是否
存在偏见,此外还提出了立法来规范面部识别,甚至禁止该技术进入联邦资助的公
共住房领域。 陌生族群看起来“低人一等” ,因此陌生族群的人往往更难激起我们的
同情心。 一些单独的词汇也会随着时间的推移而改变。这种词向量也揭示了个别单
词与性别的关联如何随着时间的推移演变出有趣的模式。 举一个非常简单的例子,
假设你想训练你的计算机系统根据一些因素,如纹理,重量和尺寸,来识别对象是否
是一本书。人类也许可以做到这一点,但计算机可以更快地做到这一点。 像“风暴前
线”(Stormfront)这样的网站,最常见的访客往往就是白人民族主义者、白人至上主义者
和带头否认集中营历史的反犹太组织成员,他们对于人口的基因构成无比着迷。关
于不同种族,一直有着各种各样的刻板印象和迷思,但这不代表它们是真的。很多
时候,它甚至不是从种族主义者的嘴里说出来。 这听起来相对简单。如果您对第一批
数据进行了正确分类,并且包含了一系列适用于许多不同类型书籍的度量指标。 这
一效应出现在所有文化中,又快又显著,在5岁儿童身上便已显现:将一群儿童任意
分成两组(如红组与黄组),让他们决定如何分配奖品,这些孩子将无一例外照顾本
组的成员。如果能有办法让自己所在群体比另一群体获得更多奖品,他们甚至不介
意让自己少拿一些;而仅仅几分钟之前,对方群体里的成员还都是他们的朋友。
总之,关键就是确保自己所属的群体无论如何都要比其他群体拿得更多。最近的事
例之一,就是2月19日发生在德国哈瑙市的疯狂枪击。事件从一家水烟吧开始,背后
的动机是意图驱逐或者杀害移民的极右翼种族信条。“然而,每一个纳粹党人都有犹
太祖先,” 卢瑟福德博士说,“ 每一个白人至上主义者都有一些中东人祖先。每一个种
族主义者都有非洲、印度、东亚的祖先,任何人都一样。” 他的实验中向白人受试展示
一名女性遭受歹徒持刀袭击的虚拟行凶场景,只不过遇害者有白人女性与黑人女性
两个版本。
“我们往往比自己想象的更有种族主义倾向。”多年来致力于歧视行为研究的比利时
鲁汶大学荣誉教授、心理学家雅克-菲利普· 莱恩斯(Jacques-Philippe Leyens)指出。 随着
时间的推移,词向量偏差与职业比例密切相关。平均偏差是负的,这意味着职业与男
性的联系比女性更为密切。然而,作者发现,从20世纪50年代到20世纪90年代,这种偏
见逐渐接近于0,这表明偏见正在减少。这一趋势与妇女在这些职业中参与比例增加
的趋势相吻合。 像“风暴前线” (Stormfront )这样的网站,最常见的访客往往就是白人民
族主义者、白人至上主义者和带头否认集中营历史的反犹太组织成员,他们对于人
口的基因构成无比着迷。观察表明,比起其他族群(外族群),所有人都倾向于为自身
认同的那个族群(内族群)尽心出力。这种“族裔中心主义”,或者说“对内族群的偏好”,
源于我们在儿童时期与某些人(例如双亲、家人、伙伴等)建立密切关系的基本需求。
其后果就是对其他人的排斥。为了训练系统,需要给计算机显示许多不同对象的
度量。你给计算机系统提供每一个对象的度量,告诉计算机这些对象什么时候是书,
什么时候不是书。在不断地测试和改进之后,系统应该能够知道什么表示一本书,
并且,可以期望它将来能够根据这些指标去预测一个对象是否是一本书,而无需人工
帮助。 这一效应出现在所有文化中,又快又显著,在5岁儿童身上便已显现:将一群儿
童任意分成两组(如红组与黄组),让他们决定如何分配奖品,这些孩子将无一例外
照顾本组的成员。如果能有办法让自己所在群体比另一群体获得更多奖品,他们甚
至不介意让自己少拿一些;而仅仅几分钟之前,对方群体里的成员还都是他们的
朋友。总之,关键就是确保自己所属的群体无论如何都要比其他群体拿得更多。社会
心理学研究告诉我们,歧视行为的原动力,与其说是对其他族群的憎恶,不如说是对
自身族群成员的格外青睐。 陌生族群看起来“低人一等”,因此陌生族群的人往往更
难激起我们的同情心。 自从雅克-菲利普·莱恩斯在2000年代对“低人
化”(infrahumanisation)概念进行深入研究以来,对陌生人的痛苦无动于衷的现象早已不
再神秘。 让我们考虑描述智力的形容词的一个子集,如智慧、逻辑和深思熟虑(完整
的单词列表可参见附录 A.3)。随着时间的推移,这组词汇与女性的联系有所增加(从强
烈偏向于男性,到程度较少地偏向),特别是在1960年代之后。作为比较,文章还分析了
一组描述外表的形容词,例如,有吸引力的,丑陋的,时髦的,这些词的偏差随着时间
的推移没有明显的变化。可以注意到,尽管这些趋势令人鼓舞,但正如图2a所示,排
名最靠前的形容词仍然存在潜在的问题。 为了证实以上结果并不依赖特定历史
时期,原文还分析了上文提到的基于COHA语料库1910~1990的9组词向量,并得到了类
似的结果。相关内容可以在原文的附录B2部分查阅。 布鲁金斯学会智囊团技术创新
中心的研究员Nicol Turner Lee解释说,我们可以从两个主要方面考虑算法偏差:准确性
和影响。对于不同的人群,一个人工智能会有不同的准确率。同样,当一个算法应用
于不同人群时,它可以做出截然不同的决策。当思考“机器学习”工具(人工智能的一种
)时,最好想一下“训练” 这个概念。这涉及到让计算机接触一堆数据——任何类型的数
据——然后计算机学习对它基于模式处理的信息做出判断或预测。 作者同样追踪了
职业偏差分数随时间推移的情况,并将其与人口普查数据中的职业参与比例进行比
较;图1d中,纵坐标是职业参与比例数据(蓝色实线),其中分母是白人职业参与
比例,而分子则是亚裔美国人,绿色实线是在 COHA 语料库训练的词向量所获得的偏
差值。所有职业的就业占有比例的增加,与词向量的偏差基本成正比。页数:136 “你是
来自世界各地的多元血统人类的后代,有些人你觉得自己认识,更多的人是你完全不
了解的,” 卢瑟福德博士说,“ 而你会与他们当中的很多人没有任何有意义的基因
关联。” 在那之后,黑人选手就统治了现代短跑项目。这更加加深了一个广泛抱持的观
念,认为非洲裔的人类由于他们的基因构成,在这个项目上更有优势。 图3a显示了随
着时间的推移,每组词向量的相关系数。与性别类似,这里的分析显示了外部事件如
何改变人们的态度。图中的相关系数有两个阶段的变化: 报料邮箱: news@thepaper.cn
然而,这些系统通常应用于比这项任务后果要严重得多、又未必有“客观”答案的
情况。通常,这些用于训练或检查这些决策系统的数据并不完整,不平衡或选择
不当,这就会成为算法偏差的主要来源(尽管当然不是唯一的来源)。To provide you with
additional information about how we collect and use your personal data, we've recently updated our
Privacy Policy and Terms of Service. Please review these pages now, as they apply to your continued
use of our website. This website uses cookies and other tracking technologies to collect information
about your website experience and share it with our analytics and advertising partners as described
in our Privacy Policy. By continuing to browse or by clicking to accept all cookies, you indicate your
agreement. 报料热线: 021-962866 (12)。另外,为了进一步验证,作者使用GLoVe算法(13)
在1988至2005年的纽约时报标注文本(14)中训练了词向量。 据他们的观察,在某些癌
症的治疗中,黑人病患进行手术的机会要低于白人病患;相反,亚裔与西班牙裔人群
比白人更易成为非必要手术的对象。当然,相关的医护人员发誓自己在诊疗中绝无
种族偏见。
“我们往往比自己想象的更有种族主义倾向。”多年来致力于歧视行为研究的比利时
鲁汶大学荣誉教授、心理学家雅克-菲利普· 莱恩斯(Jacques-Philippe Leyens)指出。 同样,
当实验人员要求一些明确表示自己不是种族主义者的白人受试为某项工作挑选合适
人选时,如果候选人的技能无可指摘,那么遴选也将保持公平,黑人不会遭受歧视;
但当候选人不是那么完美时,受试就总会偏向于挑选白人候选者。 电子书- 美国世界
秩序的终结The End of American World Order (英) 最近的事例之一,就是2月19日发生在
德国哈瑙市的疯狂枪击。事件从一家水烟吧开始,背后的动机是意图驱逐或者杀害
移民的极右翼种族信条。像“风暴前线”(Stormfront)这样的网站,最常见的访客往往就
是白人民族主义者、白人至上主义者和带头否认集中营历史的反犹太组织成员,他
们对于人口的基因构成无比着迷。(12)。另外,为了进一步验证,作者使用GLoVe算
法(13)在1988至2005年的纽约时报标注文本(14)中训练了词向量。 然而,这些系统通
常应用于比这项任务后果要严重得多、又未必有“客观”答案的情况。通常,这些用于
训练或检查这些决策系统的数据并不完整,不平衡或选择不当,这就会成为算法偏
差的主要来源(尽管当然不是唯一的来源)。一般来讲,你只知道最终的结果:如果你
在第一时间意识到了人工智能和算法的使用,它对你有什么影响。你得到那份工作
了吗?你在自己的社交媒体时间线上看到各种宣传广告了吗?面部识别系统认出你
了吗?这使得解决人工智能偏差的问题变得很棘手,但更重要的是要搞懂怎么
回事。 在那之后,黑人选手就统治了现代短跑项目。这更加加深了一个广泛抱持的
观念,认为非洲裔的人类由于他们的基因构成,在这个项目上更有优势。 Turner Lee
强调,当提出这些系统时,我们需要考虑谁能在谈判桌上占有一席之地,因为这些人
最终决定了有关其技术的道德部署的讨论。 因此,你可能拥有构建算法的数据。
但是,谁来设计,以及谁来决定如何部署它?谁来决定不同群体的可接受准确度水
平?谁来决定人工智能的哪些应用符合道德,哪些不符合道德?类似于他们如何衡
量与职业相关的偏见,作者创建了一个与恐怖主义有关的词汇清单,比如恐怖、炸弹
和暴力。 在约翰· 多维迪奥看来,这种无意识的种族主义之所以如此普遍,是因为它
有一种“适应”意义。也就是说,它使我们得以快速适应具有潜在危险的新环境。
例如,当遇到未曾谋面的陌生人的时候,我们会本能地问自己两个问题。首先,那人
究竟是敌是友?其次,他(她)是否有实现其友好或敌对意图的手段?我们需要迅速
回答这两个问题。 接下来,作者考察了1910-1990 年间词向量的变化,观察结果是否可
以反映妇女职业参与比例的变化。 DNA能够告诉你关于家族历史一些有趣的事——
而且它对于找寻失散的兄弟姐妹或者亲生父母等近亲家庭成员来说是非常有用的,
但是除此之外,它的作用受到基础生物学的很大限制。观察表明,比起其他族群(外
族群),所有人都倾向于为自身认同的那个族群(内族群)尽心出力。这种“族裔中心主
义”,或者说“对内族群的偏好”,源于我们在儿童时期与某些人(例如双亲、家人、伙
伴等)建立密切关系的基本需求。其后果就是对其他人的排斥。在生物化学的路
径上,有很多基因参与制造黑色素。这些基因当中天然的变异是人类皮肤颜色深度不
同的根源。 如,同样是根据人脸照片猜测其所表达的复杂情感,受试者在面对外族群
成员的照片时所花的时间比面对内族群成员照片时更多。而花的时间越长,就说明
赋予该照片人类特征的认知过程越是艰巨 。 “或许,人们可以用基因作依据,对种族
和体育竞技成绩作出概率性的预测,”卢瑟福德博士说,“但是这种预测顶多只是一种
弱联系。” “ 人类在整个历史当中都在到处迁移,并且随时随地地发生性行为,”卢瑟
福德博士说。 这在讲求爆发力的运动项目中,在整个人口结构上给了非裔美国人微
弱的优势——但是它完全不能够解释,非裔美国人短跑选手和白人选手之间在数量
上的差距。 但因为无从知晓陌生人的底细,出于生存的需要,我们往往只能凭借刻板
的成见来加以判断,尽管它们实际上并无客观依据。雅克- 菲利普· 莱恩斯在其最新著
作《我们都是种族主义者吗?》(Sommes-nous tous racistes?)中指出:“ 没有先入为主的
观念,我们大脑的用处将大打折扣。” 更多的时候,人们会有好几代人大体上是安定
在一处的——而这可能会令人感觉是地理上和文化上的一种落地生根。他们会用主
流的遗传系谱学,比如像祖先DNA测试等,来“证明”他们是100%的白人或者非犹太人。
再早一点,大约4500年前,英国的土地上主要是农民。他们从欧洲穿过尼德兰和东盎
格利亚之间的那片土地移民而来。本文采用了一种新的方法,使用词向量对历史趋
势进行定量研究——这里着重探讨了20世纪和21世纪,美国在性别和种族两方面刻板
印象的发展趋势。研究结果展示了特定的偏见随着时间推移而减少的趋势,也展示
了其他类型的刻板印象随时间增加的现象。此外,词向量所展示出的历史动态与美国
社会的人口和职业变化也有着密切的关系。例如,在20世纪60年代至70年代的妇女运
动和1960年代和1980年代亚裔美国人口增长期间,性别和种族群体相关的描述都发生
了变化。
| 图3b 显示了1910年、1950年和1990年最具亚洲偏见的形容词。在1950年之前,极度负面
的词汇,尤其是那些经常被用来形容外来者的词汇,与亚洲人联系最紧密:野蛮、
可恨、可怕、怪异和残忍。然而,从1950年开始,特别是从1980年开始,随着美国亚裔人
口的增加,如今这些词汇在很大程度上被另外一组印象所取代:敏感、被动、自满、活
跃和热情。而这些印象被认为是亚裔美国人的刻板印象。附录中的表35,列出了每个
十年中与亚洲人联系最紧密的10个词汇。 一些单独的词汇也会随着时间的推移而
改变。这种词向量也揭示了个别单词与性别的关联如何随着时间的推移演变出有趣
的模式。 性别歧视、种族歧视都是存在了上百年的社会现象,这些现象在不同历史时
期有怎样的发展变化呢?发表在《美国国家科学院院刊》(PNAS)的一篇论文中,研究者
用词向量的方法研究大量文本数据,挖掘出美国近一百年文化刻板印象的演化。下
面是对这篇论文的解读。 但还有一个更广泛的问题,就是人工智能可以帮助我们回
答哪些问题。胡莉莉认为,对于许多系统来说,建立一个“公平”系统本质上是荒
谬的,因为这些系统试图回答不一定有客观答案的社会问题。例如,那些声称预测一
个人会不会再次犯罪的算法,并不能最终解决伦理问题,即一个人是否该获得假释。
另外,一些美国心理学家的研究还表明:一个人的社会关系网越是强大,他(她)对不
在关系网中的那些人的“低人化”倾向就越是强烈;显然,这是因为对有着众多人际关
系的人而言,结交新朋友的要求并不强烈。同样,有朋友陪伴的人,要比处境孤独的
人更倾向于将恐怖活动的嫌疑犯视作动物。 所谓的“低人化”,指的是将某个陌生族
群的成员视作比自己族群缺乏人性的无意识机制,如认为他们不如“我们”聪明,难以
体验爱、羞耻、钦慕等复杂情感……这一现象已得到科学测量的证实。 他的实验中向
白人受试展示一名女性遭受歹徒持刀袭击的虚拟行凶场景,只不过遇害者有白人女
性与黑人女性两个版本。即使是很多心怀好意的人们,也会常常受到经历和文化背
景的影响,产生一些没有人类基因学依据的成见。比如:假定东亚学生天生就是数学
比较好,黑人就是天生节奏感强,或者犹太人就是很会赚钱。我们都会认识一些有类
似这样想法的人。 “你无法给出任何保证,因为你的算法对旧数据集执行‘公平’ ,这是
机器学习的一个基本问题所在。机器学习对旧数据和训练数据起作用。而且它不适
用新数据,因为我们还没有收集到这些数据。” 七代人以前的祖先,只有一半人
的DNA是保留在你现在保有的DNA当中。所以有可能,你在基因上与近至18世纪的真
实的祖先是没有关联的。 当思考“机器学习”工具(人工智能的一种)时,最好想一下“ 训
练”这个概念。这涉及到让计算机接触一堆数据——任何类型的数据——然后计算机
学习对它基于模式处理的信息做出判断或预测。 “我们往往比自己想象的更有种族
主义倾向。”多年来致力于歧视行为研究的比利时鲁汶大学荣誉教授、心理学家雅克-
菲利普·莱恩斯(Jacques-Philippe Leyens)指出。 这种差别甚至还反映在那些表露同情心
的感觉运动上:面对外族群成员的面部表情时,我们流露出的这些动作要少得多。这
也表明,“ 低人化” 机制并非某一大洲所专有。“但人们并未意识到他们对其他族群的‘
低人化’态度。”雅克- 菲利普· 莱恩斯强调说。因此我们往往无意识地把将陌生族群的
人视作低人一等,同时却发自内心地确信自己绝不是个种族主义者。 纵坐标轴为女
性与男性在特定职业参与比例的log 值,这个值是统计数据。通俗的来解释,纵坐标为
正值y时,从业人员的男女比例大概是1:10^y;纵坐标为负值时,男女比例为1:10^-y。
例如,在纵坐标为-4的点,图中的木匠(Carpenter) 这一职业的男女比例大致为10000:1。
而在纵坐标为2,图中的护士(Nurse)这一职业中,男女比例大概为1:100。 | 大小:1.28M
早在20多年前,美国耶鲁大学的心理学家约翰·多维迪奥(John Dovidio)就已证明,即便
在言论中真诚地反对种族主义信条,人们在日常生活中也往往会不经意地歧视某类
人群,只要能找到似是而非的合理化借口。这些模式表明,作者研究种族和性别偏见
如何随着时间演变的方法是有用的; 类似的分析还可以应用于考察对其他族裔群体
态度的转变,特别是在重大的全球性事件前后。为了研究关于亚洲人的刻板印象,文
章使用了常见和明显的亚洲姓氏,这些姓氏是通过附录A.2部分描述的方法来确
定的。这个方法产生了一个20个姓氏的列表,这些姓大部分是中国人的,但也包含其
他亚洲国家。这些词向量说明了20世纪亚裔美国人的刻板印象是如何发展和变化的。
一个中国科研团队借助功能磁共振成像进行的实验表明,当白人看到另一个白人被
针刺痛的表情时,他(她)大脑中设身处地感受痛苦的神经回路的活跃程度,要当他(
她)看到亚裔人作出这个表情时更高。同样,当亚裔人看到同种族的人感到痛苦时,
其反应也比看到白人感到痛苦时更加强烈。 在他看来,成见的首要功能在于指导我
们的行动;当然,逐步获得的新信息能帮助我们超越成见。 (12)。另外,为了进一步验
证,作者使用GLoVe算法(13)在1988至2005年的纽约时报标注文本(14)中训练了词
向量。 “没有客观方法来回答这个问题,”她说,“ 当你嵌入一个人工智能系统,一个算
法系统,一台计算机时,它不会改变问题的基本背景,也就是说问题没有客观的
答案。从根本上讲,这是一个我们的价值观是什么,以及刑事司法制度的目的是什么
的问题。” 更引人注目的是,该矩阵显示出两个清晰的区块。1960年代和1970年代之间
存在着巨大的差距,这正是美国妇女运动的最高峰。在这期间,妇女运动大力地推动
和扫除女性在教育和工作场所的法律和社会障碍。这种分歧表明,上述智力与外表
相关的形容词的分化其实是一个更大规模语言转变的一部分。这项工作提供了一种
新的量化方法来衡量变化的速度和程度。这项工作的可能延伸和应用将是研究妇女
的各种叙述和描述是如何随着时间的推移而发展和竞争的。 在标准的定量社会科
学中,机器学习被用作分析数据的工具。他们的工作表明,机器学习的工具(这里的
词向量)本身是如何成为社会学分析的有趣对象。他们相信这种范式的转变可以导致
许多富有成效的研究成果。
另外,一些美国心理学家的研究还表明:一个人的社会关系网越是强大,他(她)对不
在关系网中的那些人的“低人化”倾向就越是强烈;显然,这是因为对有着众多人际关
系的人而言,结交新朋友的要求并不强烈。同样,有朋友陪伴的人,要比处境孤独的
人更倾向于将恐怖活动的嫌疑犯视作动物。 一些单独的词汇也会随着时间的推移而
改变。这种词向量也揭示了个别单词与性别的关联如何随着时间的推移演变出有趣
的模式。 本文的主要贡献是通过词向量的视角,为探究刻板印象的时间动态演化提
出一个新的分析框架。作者的框架可以对偏差进行简单计算、提供定量的测量指标
以及简单的可视化。 报料邮箱: news@thepaper.cn 如果只是算这一项基因,你大概应该
会看到,每六个顶尖黑人跑手就会对应有五个白人选手。 新闻报料 最近的事例
之一,就是2月19日发生在德国哈瑙市的疯狂枪击。事件从一家水烟吧开始,背后的
动机是意图驱逐或者杀害移民的极右翼种族信条。观察表明,比起其他族群(外族
群),所有人都倾向于为自身认同的那个族群(内族群)尽心出力。这种“族裔中心主
义”,或者说“对内族群的偏好”,源于我们在儿童时期与某些人(例如双亲、家人、伙
伴等)建立密切关系的基本需求。其后果就是对其他人的排斥。这在讲求爆发力的运
动项目中,在整个人口结构上给了非裔美国人微弱的优势——但是它完全不能够
解释,非裔美国人短跑选手和白人选手之间在数量上的差距。LITALIA AGLI ITALIANI
/ FACEBOOK 但因为无从知晓陌生人的底细,出于生存的需要,我们往往只能凭借刻
板的成见来加以判断,尽管它们实际上并无客观依据。雅克-菲利普·莱恩斯在其最新
著作《我们都是种族主义者吗?》(Sommes-nous tous racistes? )中指出:“没有先入为主的
观念,我们大脑的用处将大打折扣。” 陌生族群看起来“低人一等”,因此陌生族群的
人往往更难激起我们的同情心。 这个结果也与其他学者的研究相吻合。它们表明,一
个族群成员间的协同与利他关系越显著,他们便越倾向于共同排斥外来族群的成员;
同样,越是团结的族群,也越倾向于认为其他族群低人一等。更有意思的是,根据这
两个值做出的回归线(图中直线)经过了原点,也就是男女就业比例为1:1的行业在词
向量中也不存在明显差异,这说明了词向量偏差能较好的匹配到统计数据中男女就
业比例的不同幅度。我们或许会将人分成白种、黑种或者棕色人种,但是这种视觉上
看得见的不同并不能准确地反映我们不同人之间基因上的差别——其实我们更多的
是相似。 一些人对于进入他们国家的移民和避难者感到焦虑,这是近年全世界很多
地方都在经历的现象。 这些模式表明,作者研究种族和性别偏见如何随着时间演变
的方法是有用的; 类似的分析还可以应用于考察对其他族裔群体态度的转变,特别是
在重大的全球性事件前后。k.sina.com.cn didn’t send any data. 自从雅克-菲利普· 莱恩斯
在2000年代对“ 低人化”(infrahumanisation )概念进行深入研究以来,对陌生人的痛苦无
动于衷的现象早已不再神秘。更引人注目的是,该矩阵显示出两个清晰的区块。1960
年代和1970年代之间存在着巨大的差距,这正是美国妇女运动的最高峰。在这期间,
妇女运动大力地推动和扫除女性在教育和工作场所的法律和社会障碍。这种分歧
表明,上述智力与外表相关的形容词的分化其实是一个更大规模语言转变的一
部分。这项工作提供了一种新的量化方法来衡量变化的速度和程度。这项工作的可
能延伸和应用将是研究妇女的各种叙述和描述是如何随着时间的推移而发展和竞
争的。 “只有意识到自己心中休眠的种族主义倾向,我们才能更好地战胜它。”雅克-
菲利普·莱恩强调。 我们认为某些区域、陆地或者人是与外界隔绝的——实体上或文化
上——而这些边界不可逾越。 Turner Lee强调,当提出这些系统时,我们需要考虑谁能
在谈判桌上占有一席之地,因为这些人最终决定了有关其技术的道德部署的讨论。
We accept all major credit cards from the United States. 为了训练系统,需要给计算机显示许
多不同对象的度量。你给计算机系统提供每一个对象的度量,告诉计算机这些对象
什么时候是书,什么时候不是书。在不断地测试和改进之后,系统应该能够知道什么
表示一本书,并且,可以期望它将来能够根据这些指标去预测一个对象是否是一
本书,而无需人工帮助。作者同样追踪了职业偏差分数随时间推移的情况,并将其与
人口普查数据中的职业参与比例进行比较;图1d中,纵坐标是职业参与比例数据(蓝
色实线),其中分母是白人职业参与比例,而分子则是亚裔美国人,绿色实线是在
COHA语料库训练的词向量所获得的偏差值。所有职业的就业占有比例的增加,与词
向量的偏差基本成正比。“或许,人们可以用基因作依据,对种族和体育竞技成绩作
出概率性的预测,”卢瑟福德博士说,“但是这种预测顶多只是一种弱联系。” 如,同样
是根据人脸照片猜测其所表达的复杂情感,受试者在面对外族群成员的照片时所花
的时间比面对内族群成员照片时更多。而花的时间越长,就说明赋予该照片人类特征
的认知过程越是艰巨 。 在标准的定量社会科学中,机器学习被用作分析数据的
工具。 他们的工作表明,机器学习的工具(这里的词向量)本身是如何成为社会学分析
的有趣对象。他们相信这种范式的转变可以导致许多富有成效的研究成果。总的
来说,公司都会声称自己是准确,但不总会透露他们的训练数据,请记住,这是人工
智能在评估新数据(比如,你的工作申请)之前对其进行训练的数据。 但因为无从知
晓陌生人的底细,出于生存的需要,我们往往只能凭借刻板的成见来加以判断,尽管
它们实际上并无客观依据。雅克-菲利普·莱恩斯在其最新著作《我们都是种族主义者吗
?》(Sommes-nous tous racistes? )中指出:“没有先入为主的观念,我们大脑的用处将大打
折扣。” 报料热线: 021-962866 “只有意识到自己心中休眠的种族主义倾向,我们才能更
好地战胜它。”雅克-菲利普·莱恩强调。 说实话,像德国、法国、土耳其和意大利这样的
国家,整个历史中都有移民存在。事实上,几乎任何地方都一样。 搜狗百科词条内容
由用户共同创建和维护,不代表搜狗百科立场。如果您需要医学、法律、投资理财等
专业领域的建议,我们强烈建议您独自对内容的可信性进行评估,并咨询相关专业
人士。 甚至在那之前,罗马人统治过那里……而他们也是来自一个幅员辽阔的跨洲
帝国,版图一直延伸到非洲撒哈拉以南和中东。 必须指出,作者认识到他们的目标是
进行定量探索性分析,而不是确定某些刻板印象如何产生的具体因果模型。然而,他
们相信这个方法使得美国历史上大规模文化转变的分析更加精确,例如,20世纪60年
代的女性运动与编码矩阵中( 图2b)的急剧变化相关,同时也与特定职业和性别偏见形
容词的变化相关( 例如歇斯底里vs.情绪化) 。 请记住,某些算法可能不应该存在,或者至
少它们不应该有如此高的滥用风险。一项技术是准确的,并不意味着它是公平或道
德的。 接下来,作者考察了1910-1990 年间词向量的变化,观察结果是否可以反映妇女
职业参与比例的变化。 Turner-Lee告诫道:“有一群非常了解它的人,他们是技术人员,
还有一群根本不真正了解它或了解得很少的人,成为了决策者。”但这并不是说没有
技术上的努力来对有缺陷的人工智能“消除偏见”,重要的是要记住,这些技术也不能
解决公平和歧视的根本挑战。 同样,当实验人员要求一些明确表示自己不是种族主
义者的白人受试为某项工作挑选合适人选时,如果候选人的技能无可指摘,那么遴
选也将保持公平,黑人不会遭受歧视;但当候选人不是那么完美时,受试就总会偏向
于挑选白人候选者。 正如来自纽约大学和AI Now研究所的研究人员所言, 预测性的警
务工具可以被输入“脏数据”,包括反映警察部门意识和隐含偏见的警务模式,以及警
察腐败。 类似于他们如何衡量与职业相关的偏见,作者创建了一个与恐怖主义有关
的词汇清单,比如恐怖、炸弹和暴力。 图3b 显示了1910年、1950年和1990年最具亚洲偏
见的形容词。在1950年之前,极度负面的词汇,尤其是那些经常被用来形容外来者的词
汇,与亚洲人联系最紧密:野蛮、可恨、可怕、怪异和残忍。然而,从1950年开始,特别是
从1980年开始,随着美国亚裔人口的增加,如今这些词汇在很大程度上被另外一组印
象所取代:敏感、被动、自满、活跃和热情。而这些印象被认为是亚裔美国人的刻板
印象。附录中的表35,列出了每个十年中与亚洲人联系最紧密的10个词汇。 举一个非
常简单的例子,假设你想训练你的计算机系统根据一些因素,如纹理,重量和尺寸,
来识别对象是否是一本书。人类也许可以做到这一点,但计算机可以更快地做到这
一点。 作者还说明了词向量如何捕捉对其他族群的刻板印象。例如,附录中的图34显
示了词向量偏差与俄国名字相关联的词向量的关系,表明1950年代冷战开始时发生
的巨大变化,以及在1910年至1920年俄国革命的最初几年里发生的轻微变化。 性别
歧视、种族歧视都是存在了上百年的社会现象,这些现象在不同历史时期有怎样的
发展变化呢?发表在《美国国家科学院院刊》(PNAS)的一篇论文中,研究者用词向量
的方法研究大量文本数据,挖掘出美国近一百年文化刻板印象的演化。下面是 对这
篇论文的解读。 C.1。 2012年,约翰·多维迪奥与普林斯顿大学心理学系的苏珊· 费斯
克(Susan Fiske)合作,揭示了无意识的种族主义在美国医院中造成的一系列不平等
现象。 这个度量指标测量在性别和种族群体词汇与中性词之间的相对距离(也就是相
对的关联强度,参见下列公式) 。

You might also like