Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

作者:Tao Yu参与:路、王淑婷

「蜘蛛」来了!耶鲁大学11名学生标注完成大规模复杂跨域Text-to-SQL数据集Spider

近期,耶鲁大学创建了一个新型大规模复杂跨域语义解析和 Text-to-SQL 数据集 Spider。研究者用多个当前最优模型进行实验,最好的模型在数据库分割设置下仅能达到 14.3% 的精确匹配准确率。Spider 数据集对未来研究是一个巨大挑战。

项目地址:https://yale-lily.github.io/spider

新千禧年开始后,每天生产的数据量呈指数级增长,它们大部分存储在关系数据库中。近年来,访问这些数据成为大多数大公司的兴趣,这些公司可以使用结构化查询语言(SQL)查询数据。随着手机的发展,更多个人数据也被存储。因此,更多来自不同背景的人尝试查询和使用自己的数据。尽管目前数据科学非常流行,但是大部分人不具备足够的知识来写 SQL、查询数据。此外,大部分人没有时间学习和了解 SQL。即使对于 SQL 专家,一次又一次地写类似的查询也是很单调的任务。因此,今天海量可用的数据无法有效访问。

标注问题和 SQL 对示例。

如果你不了解上图长长的 SQL 代码,不要担心!这就是数据库自然语言接口的用武之地了。其目标是允许我们直接使用人类语言和数据进行互动!因此,这些接口可以帮助不同背景的用户轻松查询和分析海量数据。

如何构建此类接口?

要构建此类自然语言接口,系统必须理解用户的问题,并将问题自动转换为对应的 SQL 查询。那么我们如何构建此类系统呢?目前最好的方法是使用深度学习在大规模问题和 SQL 对标注数据上训练神经网络!与基于规则的完备系统相比,这些方法更具鲁棒性和扩展性。

好的数据太少了!

但是,有一个关键的问题:我们从哪里找到大量问题和 SQL 对标注数据?创建此类数据集非常耗时,因为标注人员必须理解数据库模式,问问题然后写出 SQL 答案,所有这些都需要特定的数据库知识。而让这件事变得更加困难的是:具备多个表的非私人数据库数量非常有限。为了解决该任务对大型高质量数据集的需求,我们创建了数据集 Spider,它包含 200 个具备多个表的数据库、10181 个问题、5693 个对应的复杂 SQL 查询。所有这些由 11 名耶鲁大学学生标注完成,共耗时 1000 小时!

为什么要选 Spider?

尽管创建此类数据很难,但在传统的 9 个数据库(包括 ATIS、GeoQuery、Scholar、Advising、WikiSQL 等)中还是有一些和 SQL 查询类似的数据资源。那么,为什么要选择 Spider 数据集呢?我们来看下图:

一些 Text-to-SQL 数据集的 Spider 图。

  • ATIS、Geo、Academic:这些数据集都只包含一个数据库。而这些数据库大部分仅包含不到 500 个独特的 SQL 查询。基本上,在这些数据集上训练的模型仅对特定的数据库有效。在转换数据库后,模型将完全失败。

  • WikiSQL:SQL 查询和表的数量很多,但是所有 SQL 查询都很简单,仅包含 SELECT 和 WHERE 从句。此外,每个数据库都只是没有外键的简单的表。在 WikiSQL 上训练的模型在其它新数据库上仍然可以运行,但是该模型无法处理复杂的 SQL(如 GROUP BY、ORDER BY 或嵌套查询)和具备多个表和外键的数据库。

从上图中可以看出,Spider 的范围最大,因此它是最复杂的跨域 text-to-SQL 数据集。为什么我们说它是最大的复杂跨域数据集呢?

  • 大:超过 10000 个问题,6000 个对应的独特 SQL 查询

  • 复杂:大部分 SQL 查询覆盖几乎所有重要的 SQL 组件,包括 GROUP BY、ORDER BY、HAVING 和嵌套查询。此外,所有数据库都具备多个由外键链接的表。

  • 跨域:包含 200 个复杂数据库。根据数据库类型,我们将 Spider 数据集分割成训练、开发和测试集。这样,我们就可以在未见过的数据库上测试系统性能。

为什么大、复杂、跨域?

首先,要训练一个深度学习模型,数据集越大,性能越好。其次,你当然希望训练数据尽可能多地覆盖更多场景,包括不同的 SQL 组件和数据库模式。这样,系统可以更好地适应多种情形。最后,为什么我们想要跨域数据?简单来讲,当你遇到新数据库时,你不想重新标注数据、重新训练一个新模型,这很浪费时间!

Spider 数据集下载

你可以通过以下方式找到 Spider 数据集和排行榜:

  • 项目页面:https://yale-lily.github.io/spider

  • GitHub 页面:https://github.com/taoyds/spider

我们希望 Spider 能够帮助我们走向下一代数据库自然语言接口!

其它挑战

我们已经创建了一个不错的数据集了,那么要构建现实世界的数据库自然语言接口还需要解决哪些挑战?从自然语言处理的角度来看,有三个主要任务:

自然语言理解:该系统必须理解用户的问题,这些问题可能是模糊、随机和多样的。

数据库模式表征:数据库可以非常复杂,包括数百个列、很多表和外键。

复杂的 SQL 解码/生成:该系统理解用户问题和用户正在查询的数据库模式后,它还需要生成对应的 SQL 答案。但是,SQL 查询可能非常复杂,并且还包含具备不同条件的嵌套查询

相关研究

该领域已经经过 NLP 和数据库社区数十年的研究。以下是近期相关研究的简短列表:

  • SyntaxSQLNet: Syntax Tree Networks for Complex and Cross-Domain Text-to-SQL Task

  • Zero-shot Parser:Decoupling Structure and Lexicon for Zero-Shot Semantic Parsing(https://arxiv.org/abs/1804.07918)

  • Coarse2fine:Coarse-to-Fine Decoding for Neural Semantic Parsing(https://arxiv.org/pdf/1805.04793.pdf)

  • SQL 评估方法:TypeSQL: Knowledge-based Type-Aware Neural Text-to-SQL Generation(https://arxiv.org/pdf/1804.09769.pdf)

  • 在任务中加入背景信息:Learning to Map Context-Dependent Sentences to Executable Formal Queries(http://alanesuhr.com/atis.pdf)、DialSQL: Dialogue Based Structured Query Generation(http://cs.ucsb.edu/~ysu/papers/acl18_dialsql.pdf)

  • TypeSQL:TypeSQL: Knowledge-based Type-Aware Neural Text-to-SQL Generation(https://arxiv.org/abs/1804.09769)

  • SQLNet:SQLNet: Generating Structured Queries From Natural Language Without Reinforcement Learning(https://arxiv.org/abs/1711.04436)

  • Seq2SQL:Seq2SQL: Generating Structured Queries from Natural Language using Reinforcement Learning(https://arxiv.org/abs/1709.00103)

  • 句法神经网络:A Syntactic Neural Model for General-Purpose Code Generation(https://arxiv.org/abs/1704.01696)、Abstract Syntax Networks for Code Generation and Semantic Parsing(https://arxiv.org/abs/1704.07535)

  • Seq2Tree:Learning a Neural Semantic Parser from User Feedback(https://arxiv.org/pdf/1704.08760.pdf)

  • NaLIR:Constructing an Interactive Natural Language Interface for Relational Databases(http://www.vldb.org/pvldb/vol8/p73-li.pdf)

以及一些相关的演讲、博客或书籍:

  • How to Talk to Your Database(https://einstein.ai/research/blog/how-to-talk-to-your-database)

  • ACL 2018 Tutorial on Neural Semantic Parsing(https://github.com/allenai/acl2018-semantic-parsing-tutorial)

  • Natural Language Data Management and Interfaces(http://www.morganclaypoolpublishers.com/catalog_Orig/product_info.php?products_id=1286)

  • A Syntactic Neural Model for General-Purpose Code Generation(https://vimeo.com/234954608)

  • Learning to Map Context-Dependent Sentences to Executable Formal Queries(http://alanesuhr.com/sia2018-slides.pdf)



论文:Spider: A Large-Scale Human-Labeled Dataset for Complex and Cross-Domain Semantic Parsing and Text-to-SQL Task



论文链接:https://arxiv.org/abs/1809.08887

摘要:我们展示了一个大规模复杂跨域语义解析和 text-to-SQL 数据集 Spider。该数据集由 11 名耶鲁大学学生标注,包含 10181 个问题和 5693 个独特的复杂 SQL 查询、200 个具备多个表的数据库,覆盖 138 个不同领域。我们定义了一个新的复杂跨域语义解析和 text-to-SQL 任务,其中训练集和测试集中出现不同的复杂 SQL 查询和数据库。因此,该任务要求模型在新的 SQL 查询和新数据库模式上均实现良好的泛化。Spider 与之前的大部分语义解析任务都不同,因为它们使用单个数据库,而且训练集和测试集使用的是相同的数据库。我们用多个当前最优模型进行实验,最好的模型在数据库分割设置下仅能达到 14.3% 的精确匹配准确率。这表明 Spider 对未来研究是一个巨大挑战。

原文地址:https://medium.com/@tao.yu/spider-one-more-step-towards-natural-language-interfaces-to-databases-62298dc6df3c

工程数据科学数据集SQL
1
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

查询语言技术

查询语言泛指向数据库或信息系统查询的各种编程语言。 查询语言必须要能表达所有关系代数所能表达的查询,这样才被称为关系完整的。

关系数据库技术

关系数据库,是创建在关系模型基础上的数据库,借助于集合代数等数学概念和方法来处理数据库中的数据。现实世界中的各种实体以及实体之间的各种联系均用关系模型来表示。关系模型是由埃德加·科德于1970年首先提出的,并配合“科德十二定律”。现如今虽然对此模型有一些批评意见,但它还是数据存储的传统标准。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

推荐文章
暂无评论
暂无评论~