脸书将黑人标为为灵长类动物(Facebook致歉推荐功能已禁用)

AI系统从来不是完美的,但偏见需极力纠正。

近日,有 Facebook 用户在观看一段以黑人为主角的视频时收到推荐提示:询问他们是否愿意「继续观看有关灵长类动物的视频」。该视频是由《每日邮报》在 2020 年 6 月 27 日发布的,其中包含黑人与白人平民和警察发生争执的片段,并且视频内容与灵长类动物无关。目前,Facebook 已禁用该人工智能推荐功能。

据《纽约时报》报道,Facebook 已在上周五为其「不可接受的错误」道歉,并表示正在调查其推荐功能,防止这种情况再次发生。

针对此事,前 Facebook 内容设计经理 Darci Groves 在推特上发出该推荐提示截图,并表示这令人无法接受。Groves 还将其发布到一个面向 Facebook 现任和前任员工的产品反馈论坛。作为回应,Facebook 视频平台 Facebook Watch 的产品经理称其「不可接受」,并表示该公司正在「调查根本原因」。

黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用

Facebook 拥有世界上最大的用户上传图像存储库之一,用于训练其面部和对象识别算法。Facebook 发言人 Dani Lever 在一份声明中表示:「尽管我们对人工智能进行了改进,但我们知道它并不完美,我们还有很多改进要做。我们向任何可能看到这些冒犯性推荐信息的人道歉。」

毫无疑问,此次推荐信息的错误折射出的是 AI 系统存在的偏见。

偏见问题,不是个例

多年来,谷歌、亚马逊等多家科技公司都曾因其人工智能系统中存在的偏见,尤其是种族问题而受到审查。有研究表明面部识别技术因存在种族偏见导致识别困难,甚至曾有报道称黑人因 AI 存在的问题而受到歧视或被捕。

2015 年,Google Photos 将两位黑人的照片标记为「大猩猩(Gorillas)」,谷歌当即深表歉意,并表示将立即解决问题。然而两年后,《Wired》杂志发现谷歌的解决方案仅仅是防止将任何图片标记为大猩猩、黑猩猩或猴子。随后谷歌证实,无法识别大猩猩和猴子是因为 2015 年将黑人识别为大猩猩事件发生后,为了解决这一错误,谷歌直接从搜索结果中删除了这一词条的标签。

黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用

图源:https://www.reddit.com/r/MachineLearning/comments/3brpre/with_results_this_good_its_no_wonder_why_google/

被证实「只是删除标签」后谷歌表示:「图像标签技术的发展仍处于早期阶段,不幸的是这项技术离完美还差得很远。」

在 OpenAI 一篇名为《Learning Transferable Visual Models From Natural Language Supervision》的研究论文中 ,研究者发现一些 AI 系统会将 4.9%(置信区间为 4.6%-5.4% )的图像错误地分类为非人类类别之一,包括「动物」、「黑猩猩」等 . 其中,「黑人」图像的误分类率最高,约为 14%,而所有其他种族的误分类率均低于 8%。

黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用

论文地址:https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language.pdf

实际上,AI 领域的偏见问题并不是个例。2020 年年底谷歌开除「伦理 AI 团队」技术联合负责人 Timnit Gebru 的事件引发了一场讨论风暴。就在昨日,Darci Groves 还在推特上发声支持 Timnit Gebru 及其研究工作。

黑人被标记为灵长类动物,Facebook致歉,推荐功能已禁用

偏见事件的陆续发生让人们开始思考问题的根源,越来越多的研究者为了解决 AI 系统的偏见问题做出了努力。例如,MIT 的研究者曾经开发一种可调的算法来减少训练数据中隐藏的潜在偏见,并用该算法来解决面部检测系统中的种族和性别偏见问题。此外,机器学习作为一种数据驱动系统,数据及其标注的质量和公平性可能还有很长的路要走。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 k0kaujt7@163.com 举报,一经查实,本站将立刻删除。
(0)

相关推荐

返回顶部