使用 AI 根据姓名识别性别的服务看起来异常偏颇
一款名为「Genderify」的新产品试图借助 AI 帮助通过分析某人的姓名、电子邮件地址或用户名来识别其性别。该公司上周在 Product Hunt 上启动,但由于用户发现其算法中存在偏见和不准确之处,因此在社交媒体上引起了很多关注。例如,在 Genderify 中键入名称「Meghan Smith」,该服务将提供评估:「男性:39.60%,女性:60.40%。」但如果将该名称加上前缀,输入「Dr.Meghan Smith「,评估将改为:「男性:75.90%,女性:24.10%。」在其他试验中,输入该前缀似乎都会导致结果的概率向男性倾斜。尽管这类性别偏见经常出现在机器学习系统中,但是 Genderify 的轻率性似乎还是让机器学习领域的许多专家感到惊讶。社交媒体用户们对该服务的强烈抗议已经令 Genderify 完全关闭。Genderify 的代表通过电子邮件回应:「如果社区不想要它,(关闭)也许很公平。」目前,Genderify.com 已脱机,其免费 API 也不再可用。(The Verge)