谷歌的恶意语言检测系统存在对黑人的偏见
旨在检测和缓和在线仇恨言论的人工智能算法 -- 包括由谷歌构建的 Perspective 算法 -- 可能含有针对黑人的内在偏见。
据「New Scientist」杂志报道,来自华盛顿大学的科学家们发现人工智能工具中存在令人震惊的反黑人偏见。根据尚未发表的研究,科学家们研究了谷歌如何注释一个数据库,该数据库包含了超过 100,000 条用于训练反仇恨语音算法的推文。他们发现负责标记推文是否有问题的人倾向于将非洲裔美国白话英语(AAVE)的内容标记成冒犯性的 - 这种偏见然后影响到了算法本身。