用户发现推文照片预览有“偏见”,Twitter回应

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

用户发现推文照片预览有“偏见”,Twitter回应

雷锋网讯,为改善用户体验Twitter很早就开始尝试用算法自动裁剪照片,使得最终生成的预览照片可以呈现整张图最有趣的部分。

不过最近,Twitter正在调查为什么其照片预览似乎更偏爱白人面孔而不是黑人面孔。用户发现,裁剪照片预览的算法存在问题。

几个Twitter用户在上周末对该现象进行了演示,并发布了含有黑人和白人面孔的帖子示例。Twitter的预览显示白人面孔出现得更为频繁。

例如,当将Barack Obama和Mitch McConnell的照片附加到推文上时,Twitter似乎专门突出了McConnell的脸。

用户发现推文照片预览有“偏见”,Twitter回应

实际上,当Twitter最早使用算法自动裁剪照片预览时,相关的机器学习研究人员在博客中解释了面部识别是裁剪图像的过程,但并未详述图像中对人脸的生成问题。

“以前,我们使用面部识别将视角聚焦在可以找到的最突出的面孔上。尽管这种启发式方法还算合理,但由于并非所有图像中都有人脸,因此该方法存在明显的局限性。此外,我们的面部识别系统经常会漏掉,有时甚至在没有人脸时会错误地检测到人脸。”

Twitter首席设计官Dantley Davis发表推文表示,该公司正在尝试改进算法,并对图像生成进行实验:

“尽管这次测试并不算科学,只是个个例,但它指出了我们接下来需要研究的一些变量。现在两个男人的西装都一样,手却被遮盖住了。”

Twitter团队的Liz Kelley周日表示,该公司已经测试了上述问题,但尚未发现的有种族偏见或性别偏见的证据。“很显然,我们还有很多工作要做。我们将开源这项工作,以便其他人可以审查和复现。”

Twitter首席技术官Parag Agrawal则表示,该算法模型仍需要“不断改进”,“从实验中学习。”

显然,为了真正评估该模型是否存在偏见,研究人员需要在各类情况下使用大量实例和样本进行研究。

不过,Twitter的工程师Zehan Wang提到,2017年该算法部署之前就被发现存在偏见,但并未达到“显著”水平。

2018年,Twitter发表的一篇博客中解释了算法是如何影响的照片预览的生成的。导致算法选择某一类图像的原因之一是具有明显的反差性,这可以解释为什么算法似乎偏爱白人面孔的原因。

雷锋网 (公众号:雷锋网) 编译,via venturebeat

(雷锋网)

随意打赏

提交建议
微信扫一扫,分享给好友吧。