线上分享 | Transformers库维护者之一、UCSD博士生分享库背后的故事

自 2017 年提出以来,Transformer 已经成为占据主导地位的自然语言处理(NLP)架构,在自然语言理解和自然语言生成等任务上表现出的性能超过了卷积和循环神经网络等其他神经模型。之后,Transformer 的训练数据和模型规模也不断扩展,从而促进了高效并行训练以及长期序列特征捕获。


Transformer 架构还有助于大型文本语料库上的预训练,在文本分类、语言理解、机器翻译、共指消解、常识推理以及摘要生成等下游任务上实现了准确率的较大增益。然而,为使这些模型得到广泛的应用,研究人员还必须解决各式各样的实际挑战。另外,Transformer 无处不在的应用要求系统能够在不同平台上训练、分析、缩放和扩增模型。

在这篇被评选为 EMNLP 2020 最佳 Demo 论文奖的论文中,来自 Hugging Face 的研究者详细描述了专用于支持 Transformer 架构以及促进预训练模型分布的 Transformers 库。该库包含多个精心设计的 SOTA Transformer 架构,使用统一的 API。此外还汇集了社区构建的多个预训练模型,并向社区开放。目前,该库的 star 量高达 37.9K,包含数千个预训练模型。

机器之心最新一期线上分享邀请到了 Transformers 库维护者之一、加州大学圣迭戈分校博士生许灿文,为大家详细解读 Transformers。

分享主题:Hugging Face Transformers 库

分享嘉宾:许灿文,加州大学圣迭戈分校博士生,Transformers 维护者之一。

分享概要:Hugging Face 的 transformers 库为 Transformers 模型提供了统一、简洁、全面的 API,实现了对研究者可拓展、对从业人员简单友好、工业部署迅速健壮的目标。该库已经成为了 NLP 前沿领域研究的「标配」。本次分享将以 EMNLP 2020 best demo 为出发点,介绍 transformers 库和其背后的设计哲学、最新功能和未来展望。

直播时间:北京时间 12 月 15 日 20:00-21:00

论文链接:https://www.aclweb.org/anthology/2020.emnlp-demos.6/
项目地址:https://github.com/huggingface/transformers

加入机动组,一起看直播

「机动组」是机器之心发起的人工智能技术社区,将持续提供技术公开课、论文分享、热门主题解读等线上线下活动,并在社群中提供每日精选论文与教程、智能技术研究周报,同时「机动组」也将不定期组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。添加机器之心小助手(syncedai5),备注「2020」,加入本次直播群。

ps:如果小助手无法添加,请将「微信 ID」发送邮件到 dujiahao@jiqizhixin.com,我们将与你联系,邀你入群。

Powered by Froala Editor

入门机器之心EMNLP 2020
相关数据
文本分类技术

该技术可被用于理解、组织和分类结构化或非结构化文本文档。文本挖掘所使用的模型有词袋(BOW)模型、语言模型(ngram)和主题模型。隐马尔可夫模型通常用于词性标注(POS)。其涵盖的主要任务有句法分析、情绪分析和垃圾信息检测。

常识推理技术

常识推理是人工智能(AI)的一个分支,它关注模拟人类每天遇到的普通情境的类型和本质的假设。这些假设包括对人和物体的物理特性,目的,意图和行为的判断,以及他们的行为和相互作用的可能结果。展示常识推理的设备将能够预测结果并得出类似于人类民间心理学(人类对人们的行为和意图进行推理的天生能力)和天真物理学(人类对物理世界的自然理解)的结论。

推荐文章
暂无评论
暂无评论~