索尼人工智能伦理部门进行的一项研究表明,人工智能在面部识别甚至创建虚拟面孔时不会考虑肤色。
面部识别的使用越来越广泛'人工智能。倒监控地铁中的诈骗者或者在乘坐欧洲之星之前结束排队例如。为了实现这一目标,算法必须经过训练当然。他们分析数以百万计的面孔并学习完善他们的识别。该系统并非完美无缺,甚至可以导致比较严重的司法错误。
2018 年,一项研究表明对于深色皮肤的人来说识别效果较差。这导致了一些公司的变化,例如谷歌或者元,他采用了埃利斯·蒙克(Ellis Monk)更具包容性的参考框架。索尼然而,认为偏见依然存在。对他的划分的研究人工智能伦理表明黄肤色几乎被AI忽略,有利于色调走向胭脂。
索尼认为人工智能比其他肤色更喜欢某些肤色
研究人员建议通过以下方法来解决这个问题自动肤色分析将其置于两个不同的尺度上:从亮到暗和的大部分是黄色到大部分是红色。程序隔离显示皮肤的图像的像素,将它们的 RGB 值(红、绿、蓝)转换为存储库使用的代码CIE实验室认为最相关,然后计算平均值。对于谷歌等人使用的量表的创建者埃利斯·蒙克(Ellis Monk)来说,这将忽略一个人体分析他认为,这对于消除偏见很重要。
除了选择最终的解决方案之外,一些公司已经宣布他们将研究索尼研究的结论。它的影响超出了用于监视目的的面部识别,因为它们还包括AI照片创作,我'微笑识别甚至是照片裁剪工具。索尼人工智能伦理部门负责人 Alice Shang 毫不怀疑完善算法训练系统必然是一项永无止境的任务。 “我们必须继续努力取得进展,”她总结道。
来源 :有线