纽约大学新数据集探讨了语言模型偏差的程度
据外媒报道,在一项新的研究中,纽约大学(NYU)的研究人员发现,包括谷歌的 BERT 和 ALBERT 和 Facebook 的 RoBERTa 在内的流行语言模型加强了种族,性别,社会经济,宗教,年龄,性取向和其他固板偏见。尽管先前的研究已经发现许多相同模型中存在偏差,但是最新的研究表明,这些偏差的范围比最初的想法要广泛。纽约大学的研究人员创建了一个名为「众包刻板印象配对」(CrowS-Pairs)的数据集,以衡量 9 种类型偏见的程度——种族 / 肤色,性别 / 性别认同或表达,性取向,宗教,年龄,国籍,残疾,外表,以及社会经济地位 / 职业——语言模型中都有。