自 2017 年提出以来,Transformer 已经成为占据主导地位的自然语言处理(NLP)架构,在自然语言理解和自然语言生成等任务上表现出的性能超过了卷积和循环神经网络等其他神经模型。之后,Transformer 的训练数据和模型规模也不断扩展,从而促进了高效并行训练以及长期序列特征捕获。
Transformer 架构还有助于大型文本语料库上的预训练,在文本分类、语言理解、机器翻译、共指消解、常识推理以及摘要生成等下游任务上实现了准确率的较大增益。然而,为使这些模型得到广泛的应用,研究人员还必须解决各式各样的实际挑战。另外,Transformer 无处不在的应用要求系统能够在不同平台上训练、分析、缩放和扩增模型。在这篇被评选为 EMNLP 2020 最佳 Demo 论文奖的论文中,来自 Hugging Face 的研究者详细描述了专用于支持 Transformer 架构以及促进预训练模型分布的 Transformers 库。该库包含多个精心设计的 SOTA Transformer 架构,使用统一的 API。此外还汇集了社区构建的多个预训练模型,并向社区开放。目前,该库的 star 量高达 37.9K,包含数千个预训练模型。机器之心最新一期线上分享邀请到了 Transformers 库维护者之一、加州大学圣迭戈分校博士生许灿文,为大家详细解读 Transformers。分享主题:Hugging Face Transformers 库分享嘉宾:许灿文,加州大学圣迭戈分校博士生,Transformers 维护者之一。分享概要:Hugging Face 的 transformers 库为 Transformers 模型提供了统一、简洁、全面的 API,实现了对研究者可拓展、对从业人员简单友好、工业部署迅速健壮的目标。该库已经成为了 NLP 前沿领域研究的「标配」。本次分享将以 EMNLP 2020 best demo 为出发点,介绍 transformers 库和其背后的设计哲学、最新功能和未来展望。直播时间:北京时间 12 月 15 日 20:00-21:00论文链接:https://www.aclweb.org/anthology/2020.emnlp-demos.6/项目地址:https://github.com/huggingface/transformers「机动组」是机器之心发起的人工智能技术社区,将持续提供技术公开课、论文分享、热门主题解读等线上线下活动,并在社群中提供每日精选论文与教程、智能技术研究周报,同时「机动组」也将不定期组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。添加机器之心小助手(syncedai5),备注「2020」,加入本次直播群。ps:如果小助手无法添加,请将「微信 ID」发送邮件到 dujiahao@jiqizhixin.com,我们将与你联系,邀你入群。Powered by Froala Editor