2019-01-03 22:44:02
情绪阅读技术未通过种族偏见测试

情绪阅读技术未通过种族偏见测试.jpg

面部识别技术已经发展到现在可以解释面部表情中的情绪。这种分析越来越多地应用于日常生活中。例如,公司可以使用面部识别软件来帮助制定招聘决策。其他程序扫描人群中的面孔,以识别对公共安全的威胁。

不幸的是,这种技术难以解释黑脸的情绪。我上个月发表的一项新研究表明,情感分析技术给黑人男性的脸部带来的负面情绪比白人男性的脸部更多。

这不是面部识别程序第一次被证明有偏见。谷歌将黑脸标记为大猩猩。相机认为亚洲人的面孔眨眼。面部识别程序努力为皮肤较黑的人正确识别性别。

我的工作有助于更好地理解人工智能软件中隐藏的偏见。

测量偏差

为了检验分析人们情绪的面部识别系统中的偏见,我使用了2016年至2017年赛季400张NBA球员照片的数据集,因为球员的服装,运动能力,年龄和性别相似。此外,由于这些是专业肖像,玩家会看到图片中的相机。

我通过两种众所周知的情感识别软件来运行图像。无论他们多么微笑,两个黑人球员平均分配的负面情绪分数。

例如,考虑一下Darren Collison和Gordon Hayward的官方NBA照片。两位球员都在微笑,根据面部识别和分析程序Face ++,Darren Collison和Gordon Hayward的微笑得分相似 - 分别为48.7和48.1。

然而,Face ++认为Hayward的表达高达59.7%,愤怒0.13%,而Collison的表达高达39.2%,27%表示愤怒。尽管面部识别程序本身认识到两个球员都在微笑,但科里森被认为几乎和他一样生气,而且比海沃德更加愤怒。

相比之下,微软的Face API认为这两个人都很开心。尽管如此,科里森被认为不如海沃德幸福,幸福得分分别为98%和93%。尽管他的微笑,科里森甚至得到了少量的蔑视,而海沃德却没有。

在所有NBA照片中,出现了同样的模式。平均而言,Face ++对黑脸的评价是白脸的两倍。 Face API将黑色面孔评为三倍于白色面孔的蔑视。在根据他们的微笑匹配玩家之后,两个面部分析程序仍然更可能将愤怒或蔑视的负面情绪分配给黑脸。

由AI定型

我的研究表明,面部识别程序表现出两种不同类型的偏见。

首先,对于每个微笑,黑色面孔一直被评为比白色面孔更有害。 Face ++表现出这种偏见。其次,如果对于他们的面部表情有任何歧义,黑色面孔总是被评为愤怒。 Face API显示了这种类型的差异。即使黑脸部分微笑,我的分析表明,与具有相似表达的白人相比,这些系统假设更多的负面情绪。不同种族的平均情绪分数更接近,但黑白脸仍然存在显着差异。

这一观察结果与其他研究结果一致,这表明黑人专业人士必须放大积极情绪,才能在工作场所绩效评估中获得平等。研究表明,人们认为黑人比白人更具身体威胁,即使他们的身材相同。

一些研究人员认为面部识别技术比人类更客观。但我的研究表明,面部识别反映了人们的偏见。黑人男性的面部表情与白人相比,与威胁行为相关的情绪得分更高,即使他们在微笑时也是如此。有充分的理由相信面部识别的使用可以将先前存在的刻板印象形式化为算法,自动将它们嵌入到日常生活中。

在面部识别同样评估黑白面部之前,黑人可能需要夸大他们积极的面部表情 - 基本上是微笑 - 以减少模糊性和技术可能的负面解释。

虽然创新的人工智能可以实施和加剧现有的权力动态,导致种族/族裔群体的不同影响。一些社会问责制对于确保所有群体的公平性是必要的,因为面部识别与大多数人工智能一样,对于受其决策影响最大的人来说通常是不可见的。

猜您喜欢的其它内容