先前,多名用户发现,在有不同人种的照片中,Twitter的自动图像裁剪算法会在选择预览推文呈现的缩略图区域时,更加突出肤色更浅的人像区域。
一、多个实验表明,图像剪裁算法更难识别深色人种
在滑动手机时,人们通常不会注意到附在推文预览上的缩略图,但在上周,研究人员却发现用于提取缩略图的裁剪算法可能更“偏心”白种人。
在多名用户发布的不同人种的照片中,Twitter倾向于在缩略图中突出浅色人种的图像,而如果你点击这些原始图片,可以看到其中包含更多其他肤色的人群,但即使改变了原图中深色人种和浅色人种出现的位置,预览结果也不会改变。
密码及基础架构工程师Tony Arcieri也在推特上进行了一项实验,展示了美国前总统巴拉克·奥巴马(Barack Obama)和参议员米奇·麦康奈尔(Mitch McConnell)的面孔。而无论二人位置如何,或者改变其他潜在干扰因素,例如领带的颜色等,算法都倾向于在预览的缩略图中展示Mitch McConnell的脸。
也有网友认为,出现这一情况是因为算法更倾向于提取图像中的亮度高和色彩密度大的区域,并不是“偏见”。
二、Twitter最新回应:测试中并未发现种族歧视证据
针对该实验,Twitter发言人利兹·凯利(Liz Kelley)回应称,在算法正式使用前的测试中并没有发现种族或性别歧视的证据,但仍需进一步分析,并补充,公司将公开机器学习算法的源代码,以便“其他人可以查看和复制” Arcieri实验的结果,并深入探讨问题的根源。
德国的开发人员比安卡·卡斯特(Bianca Kastl)就其中一个线程中解释道,Twitter的算法可能是基于显著性,也就是人们视觉搜索的顺序,来裁剪图像的。
Twitter在2018年的博客文章中支持了他的理论,并解释了其用于图像裁剪的神经网络算法。先前,Twitter将面部检测功能纳入裁剪图像的部分,但这种方法并不适用于没有面孔的图像,所以社交网络转而采用了基于显著性的算法。
但即使Twitter算法并没有有意地产生“种族偏见”,但也有足够多证据证明,其在研发过程中的缺陷导致“种族歧视”出现。 NVIDIA的AI研究总监Anima Anandkumar指出,显著性算法采用的训练集,是异性恋男性的眼球追踪的数据,而这显然会将受试者的种族偏见转移给算法。
三、错误识别引起乌龙,算法“偏见”并非个例
基于性别肤色的面部识别准确率差异早已不是新鲜事了。早在2018年,微软在识别肤色较浅的男性时,准确性就已达到了100%,但在识别深色皮肤女性时,准确率仅为79.2%。
在推特“偏见”事件发生前,今年六月初,微软也同样因为面部识别涉及种族歧视引起了一场乌龙。英国知名女团Little Mix成员Jade Thirlwall发文,猛烈抨击微软新闻网站MSN在关于自己的报道中混淆使用了团内另一位成员的照片,随后,该篇报道证实是由AI抓取并生成,却在寻找配图时把黑皮肤的Leigh和阿拉伯裔的Jade弄混了。
随着越来越多的新闻网站和社交媒体采用AI识别、提取图片,人们开始注意到许多算法,尤其是面部识别中存在的种族偏见。
结语:算法偏见问题正引起重视
越来越多的用户投诉网站中潜在的种族偏见,再加上“黑人的命也是命”的抗议活动升级后,许多科技公司被迫反思系统,尤其是面部识别技术中存在的偏见,包括IBM和Amazon在内的一大批公司紧急暂停或中止面部识别系统的工作。
Twitter也承诺将其图像裁剪的机器学习算法开源,接受更多用户的审查和建议,其首席技术官Parag Agarwal表示,该算法需要不断改进,团队也渴望从经验中学习。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户