Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

字符级NLP优劣分析:在某些场景中比词向量更好用

在解决 NLP 问题时,你选择的基本处理单位是词还是字符?LightTag 近日的一篇博文介绍了字符级 NLP 模型的优势和短板,并介绍了一些更适合字符级模型的应用场景。需要注意的是,本文主要围绕英语等单个字符无具体意义的语言编写,对于汉语这种词与字符之间存在很多重叠的语言,或许还需要一些新的思索。

NLP 系统就像人生一样,充满了选择与权衡。其中一个选择是指定我们的模型所看到的最小单位。通常而言,我们处理语言的方式是处理「词(word)」。本文则将探索另一个不太直观的选择——字符(character),并将介绍字符级处理方式的优缺点。

字符级模型放弃了词所具有的语义信息,也放弃了即插即用的预训练词向量生态系统。另一方面,字符级深度学习模型又有两个基本优势:它们能缓解我们在模型输入上遇到的词汇库问题,还能避免在模型输出上的计算瓶颈。

在输入方面,它们能极大地提升我们的模型所能处理的词汇量,并且能弹性地处理拼写错误和罕见词问题。在输出方面,由于字符级模型的词汇库很小,所以计算成本更低。这样的性质使得在预算有限时也能使用某些训练技术(比如联合训练一个语言模型)并达到较快的训练速度。

本文将按以下结构展开。我们首先会介绍我们在词层面常遇到的且可用字符级模型解决的问题。因为字符级模型不够直观,所以我们会看看它们是否能学习到重要的信息,并会展示一些解决这一问题的研究。然后我们会讨论在字符层面处理语言的优势和缺点,最后会以解决这一问题的其它技术作结。

油井分析——一个启发示例

WellLine 提供了「用于油井优化的 AI 驱动的油井时间线」,并且也是 LightTags 最早的客户之一。他们的一部分成果是将自然语言处理技术应用于人类书写的每个油井的生产日志。

使用 LightTag 标注的油井日志

WellLine 的数据域几乎算得上是一种英语次级方言。很多词都是英语,但也有很多不是,其中有很多只有领域专家才能理解的缩写和行话。因为这个域的数据在互联网上并不充裕,词向量等常用的预处理 NLP 解决方案并没有适合 WellLine 的词汇库。

在 WellLine 这个情况中,度量和单位都很重要,但在应用模型之前将它们 token 化可能会有问题。比如标注为「Rig Equipment」的「9 7/8" BHA」这一项;标准的 token 化方法(对词有标准的假设)会将这些数字分开,让我们得到 [9,7,/,8,"]。要得到更准确的 token 化方法,需要大量领域专业知识和工程开发工作。

行业内的很多 NLP 用例都遵循相似的模式,尽管相关文本的语言是英语,但它们往往都有特有的词汇、缩写和标点符号,甚至还有挑战传统的 token 定义的表情符号。正如我们之前看到的那样,使用了标准 token 化假设的直接可用的解决方案往往无法达到预期的目标。但是,构建一个领域特定的 token 化器又可能需要非常多的时间和金钱。

在这样的案例中,我们认为使用字符级模型更合理。它们的使用场景可能远远超出你的预料——不管是用于处理金融聊天、政治推文、生物学记录、医药处方文本,还是用于希伯来语或阿拉伯语等形态丰富的语言。通常而言,我们并不关心整个词汇库的 token 化或语义。我们只关心能否在这些文本中找到我们需要的信息。

在这些情况中,字符级模型能给出让人信服的结果。根据定义,字符级模型能让我们免去 token 化的麻烦,从而让我们可以处理任意大小的词汇库,而且计算成本也很低,这有助于无 TPU pod 的预训练和联合训练技术。

字符级模型有效吗?

尽管字符级模型听起来很有潜力,但它们确实也违反直觉。词有语义含义,字符则没有,因此我们不能显然地预期模型能够通过处理字符来学习了解一段文本的语义内容。幸运的是,我们站在巨人的肩膀上,我们来看看他们的一些工作成果。

字符级模型可以学习非平凡的句法

2015 年时,Andrej Karpathy 发表了《循环神经网络不合理的有效性》https://karpathy.github.io/2015/05/21/rnn-effectiveness/,其中他训练了一个可以写出基本上合理的 C 代码的循环神经网络。下面是一个来自他的文章的示例:

/*
 * Increment the size file of the new incorrect UI_FILTER group information
 * of the size generatively.
 */
static int indicate_policy(void)
{
  int error;
  if (fd == MARN_EPT) {
    /*
     * The kernel blank will coeld it to userspace.
     */
    if (ss->segment < mem_total)
      unblock_graph_and_set_blocked();
    else
      ret = 1;
    goto bail;
  }
  segaddr = in_SB(in.addr);
  selector = seg / 16;
  setup_works = true;
  for (i = 0; i < blocks; i++) {
    seq = buf[i++];
    bpf = bd->bd.next + i * search;
    if (fd) {
      current = blocked;
    }
  }
  rw->name = "Getjbbregs";
  bprm_self_clearl(&iv->version);
  regs->new = blocks[(BPF_STATS << info->historidac)] | PFMR_CLOBATHINC_SECONDS << 12;
  return segtable;
}

Yoav Goldberg 在 Karpathy 的这篇博客下跟了一个评论:

很厉害,对吧?网络是怎么学会模仿这样的输入的?确实如此,我也觉得相当了不起。但是,我觉得这篇文章的大部分读者感到震撼的原因是错误的。这是因为他们不了解非平滑的最大似然字符级语言模型以及它们在生成相当可信的自然语言输出上那不合理的有效性。……在我看来,一次一个字符地生成英语并没有那么厉害。这个 RNN 需要学习之前 nn 个字母,其中 nn 比较小,就是这样。

但是,这个生成代码的例子却非常厉害。为什么?因为上下文感知。注意,在这里贴出的所有例子中,代码是有很好缩进的,大括号和小括号嵌套正确,甚至注释都有正确的开始和结束。这不是通过简单查看前 nn 个字母就能实现的。

从这个意义上讲,Karpathy 的演示表明我们可以合理地预期字符级模型能够学习和利用语言的「深度」结构。Karpathy 训练了一个语言模型,它本身虽然不是很有用,但我们还会回来解释我们为什么认为这表明了字符级模型在应用 NLP 上的出色能力。

字符级模型可以「理解」情绪

2017 年,OpenAI 发布了一篇博客和论文《Learning to Generate Reviews and Discovering Sentiment》介绍他们训练的一个字符级语言模型,这个模型是在亚马逊评论上训练得到的,结果发现该模型自己学会了识别情绪。该实验的一些细节让其听起来有些不切实际。

我们首先在一个包含 8200 万条亚马逊评论的语料库上训练了一个有 4096 个单元的乘法 LSTM,用来预测一节文本的下一个字符。训练过程在 4 个英伟达 Pascal GPU 上用去了一个月的时间,我们的模型每秒处理 12500 个字符。

尽管如此,其论文还指出这个字符级模型能够习得文本的语义属性,这主要来自第一原理(first principle)。

字符级模型能够翻译

DeepMind 的《Neural Machine Translation in Linear Time》和 Lee et al 的《Fully Character-Level Neural Machine Translation without Explicit Segmentation》展示了在字符层面上实现的翻译。这些结果尤其引人注目,因为翻译任务需要对基础文本有非常好的语义理解。 

Lee 论文的模型有很好的弹性

DeepMind 论文的相关性可能会有些疑问,因为他们的模型使用的是卷积,而不是常用的 RNN/LSTM。实际上,这使得模型可以更快地训练,无需很大的计算预算或 TPU 集群就能进行迭代和探索。

在字符层面上处理的优势

了解了字符级模型的效果,我们来看看它们能带来哪些优势以及我们可能想要使用它们的原因。我们需要在两个地方在字符和词之间做出选择,即模型的输入和模型的输出。在输入方面,选择字符时词汇库要宽松得多,而且可以处理更长的序列(更多计算),但语义信息会减少。在输出方面,计算性能会有显著的提升,我们将在后面详述这一点。

字符级模型支持开放的词汇库

考虑一下下列来自深海石油钻井平台维护日志中的以下句子(是的,它们有日志):

Set 10 3/4" csg slips w/ 50K LBS.

它是说「设置十又四分之三英寸的…」,还是「设置十个四分之三英寸的…」。

slips 的后缀 s 提供了一个强有力的线索,告诉我们有 10 个数量的 3/4 英寸的 slip,所以第二种解读是对的。可以预料词级模型能轻松地解决这个问题,但是,我们需要问自己,我们的模型究竟会看到什么 token?

因为当我们在词层面操作时,我们必须事先选择一个词汇库,也就是说我们的模型可以处理的词汇列表是固定的,其它词都会被映射到 UNK(未知词)。一个宽松的模型的词汇库通常有 1-3 万个最常用的词。

在 GoogleNews 上训练的词向量不包含这些 token:10、3/4"、csg、w/、50K。

更进一步,与 slips 最接近的词是 slip、fall 等——表示模型认为 slip 是一个动词,slips 是动词的一种变形形式。也就是说,我们的模型会把句子「Set 10 3/4" csg slips w/ 50K LBS」读取为「Set UNK UNK UNK falls UNK UNK Location_Based」。

如果我们想要使用 NLP 来理解我们的油井中的情况,使用词向量(单纯地)会让我们很快迷失方向。另一方面,字符级模型对词汇库没有实际的限制,能以输入本来的样子读取它。回想一下 Goldberg 有关上下文的评论,很难想象字符级模型能够将表示复数的 s 后缀与 10 联系起来,从而「理解」10 是一个数量。

这样的优势并不局限于油井分析。将 NLP 应用于用户生成的文本是一种常见做法,这样的文本通常充斥着拼写错误、emoji、缩写、俚语、领域特定的行话和语法。最重要的是,语言还会不断演化出新的词汇和符号。尽管字符级模型不能解决人类文本的所有问题,但它们确实能让我们的模型更稳健地处理这样的文本。

字符级模型能移除训练任务的瓶颈

应用 NLP/文本挖掘的一个更常见问题是查找文本中的实体并消除歧义,比如上面例子中的「10」。也就是说,我们并不总是需要生成文本。但是,已经可以确信,在一个语言建模任务上联合训练或预训练我们的模型是有帮助的,原因包括:1)有助于泛化,2)减少一定验证准确度所需的标签的数量。

语言模型的目标是根据之前的 token 预测下一个 token。标准的做法是最后一层在词汇表的每个 token 上计算一个 softmax。当词汇库较大时,softmax 步骤和相关的梯度计算就会成为训练语言模型的性能瓶颈。

字符级模型因为一开始词汇库就很小,也就隐含地避免了这一问题。这让我们可以快速地预训练或联合训练一个与我们的主要目标一致的语言模型。尽管你确实可以通过投入更多预算、硬件和工程开发来克服这一瓶颈,但那同时也会推高你的开发和部署成本。事实上,涉及到应用 NLP 的业务都很看重投资回报率,最好还要快,而且可以投入到一个给定问题上的资金是有限的。

字符级 NLP 模型的缺点

字符级模型也并非万能,同样存在自己的缺陷。最显眼的两个缺陷是缺乏输入的语义内容(字符是没有意义的)以及输入长度的增长。英语的平均词长为 5 个字符,这意味着根据架构的不同,可以预期计算需求会有 5 倍的增长。

字符没有语义

放弃词的语义内容不是一个简单的决定,也不是常能在当前最佳系统中看到的。在写作本文时,Google 的 BERT 模型是当前最佳,并且在 100 种语言上预训练过。没有多少组织机构有运行 BERT 预训练的计算能力,所以不能轻易放弃使用这些模型。话虽如此,值得注意的是用于亚洲语言的 BERT 模型是在字符层面上有效工作的。

更长的序列会增加计算成本

在词层面进行有效的处理会将你的序列的长度乘以词的平均字符数。比如在英语中,词的平均字符数为 5,如果假设你按序列处理你的输入,那么你需要 5 倍的计算。使用字符级模型的一个重要理由是计算成本低,这似乎刚好适得其反。

这是一个实际存在的而且往往令人沮丧的缺点,但只有在你按序列处理你的输入时才会有这个问题。如果你愿意而且可以使用卷积(比如 Bytenet)或 Transformers(比如 BERT),那么模型固有的并行能力能有效地抵消长序列的成本。这仍然需要权衡,基本上而言,如果想要收获字符级模型的最大优势,对架构的选择会受到「温和的」限制。

你不关心字符

如果你要完成一个序列标注任务(比如命名实体识别),你可能并不在乎单个字符。你的模型应该要能分辨一个特定的词是否是实体,并会在那样的输出上得以衡量。使用字符级模型意味着你得到的输出也是字符级的,这会让你需要完成更多的工作。

还有更糟糕的呢。字符级模型不满足任何 token 化方案,肯定也不满足你选择用来评价你的模型的方案。可以推知,没有什么能阻止你的模型基于子词(subword)进行预测或者与你的 token 化方案(比如将你想要保留成一个 token 的缩略词分开)背道而驰。从效果上讲,这会引入一类新的误差,你在评估模型时需要考虑到这一点。

当然,这一问题也存在解决方案/补充方法。将 B-I-O 方案应用于你的模型是有帮助的,因为这能激励模型明确地学习词的边界。学习线性的 CRF 或使用波束解码器也有助于缓解这一问题。

针对字符级模型所能解决的问题的其它解决方案

正如我们之前说的那样,选择字符或词需要权衡,但两者之间也存在一个连续范围。有些方法集中了两者的优势,但可能也会有自己的缺点。这一节我们将看看其中一些方法,并讨论一下它们的相对优势和缺点。

使用大词汇库

在输入方面,字符级模型解决的主要问题是处理任意大小的大词汇库的能力,包括对拼写错误和其它人类文本差错的抗性。常用的方法有两种,但可能还有一些我们还不知道的方法。

有一类嵌入技术是用于在嵌入预训练过程中处理子词单元的。使用这些技术的最早期论文之一是《Neural Machine Translation of Rare Words with Subword Units》,其开篇写道:

神经机器翻译(NMT)模型通常用于处理固定大小的词汇库,但翻译是一个开放词汇库的问题。……在这篇论文中,我们引入了一种更简单且更高效的方法,让 NMT 模型可以通过将罕见和未知的词编码成子词单元的序列来执行开放词汇库的翻译。这基于这样一个直觉:不同的词类别可以通过比词更小的单位进行翻译,比如名字(通过字符层面的复制或转写)、复合词(通过翻译成分)、同源词和借词(通过语音和形态变换)。

这一类型的系统包括 Facebook 的 fastText、谷歌的 SentencePiece 和 SpaCy 的 HashEmbed(其依赖于 Bloom Embedding)。

我们的内部研究发现这些系统很令人沮丧。我们常常需要处理有丰富形态或领域的语言,其中单个字符都可能在句子中有不同的含义。在这些案例中,子词嵌入会遗落某些所需的东西。

Primer.ai 的 Leonard Apeltsin 曾写过一篇关于俄语 NLP 的文章:https://primer.ai/blog/Russian-Natural-Language-Processing/,其中,他在通过 RusVectors 构建的嵌入空间中查找了与词 Vodka 最近的词。RusVectors 是使用有关俄语形态学的知识构建的,这与 FastText 的情况不同。结果很有意思:

与 Vodka 最近邻的 RusVectors



与 Vodka 最近邻的 FastText


 

与 Vodka(已包含曲折化)最近邻的 FastText

 


结合词嵌入与字符表征


另一个尤其引入关注的方法是既输入词嵌入,又处理每个词的字符,然后再将处理结果与对应的词向量连接起来。


字符与词相结合,来自《Named Entity Recognition with Bidirectional LSTM-CNNs》

就词的形态而言,这种方法似乎是在子词单元上的改进。因为没有事先确认子词单元是什么,模型可以自由地学习「词」的最优表征方式。

降低 softmax 的成本

这些方法本身都没有缓解 softmax 层较大的问题,而我们可以看到这个问题常常是网络的性能瓶颈。通常来说,我们的核心 NLP 任务并不需要大的 softmax,但我们确实想要联合训练或预训练一个语言模型来提升我们的模型的性能和数据效率。

这一问题的解决方案分为两类。第一类是以某种更计算友好的方式近似 softmax。Sebastian Ruder 在他的博客中对 softmax 近似方法进行了出色的介绍:http://ruder.io/word-embeddings-softmax/ 

第二类是通过寻找替代目标来绕过 softmax。来自 Spacy 的 Matt Honnibal 一直在努力将这类方法加入 Spacy 库,在相关的一个 GitHub 问题中,他写道:

我的解决方案则是载入一个预训练的向量文件,然后使用向量-空间作为目标。这意味着我们仅需要预测为每个词预测一个 300 维的向量,而不是试图在 10000 个 ID 等事物上进行 softmax。这还意味着我们可以学习非常大的词汇库,这很能让人满意。

不幸的是,这项技术目前的结果并不好,Matt 给出了记录:https://github.com/honnibal/spacy-pretrain-polyaxon#experiment-2-ontonotes-ner-fasttext-vectors

该领域另一项有趣的工作是近期的《Semi-Supervised Sequence Modeling with Cross-View Training》:

因此,我们提出了 Cross-View Training(CVT),这是一种监督学习算法,可混合使用有标注和无标注数据来提升 Bi-LSTM 句子编码器的表征。在有标注的样本上,我们使用标准的监督学习。在无标注的样本上,CVT 会教能看到输入的受限视角(比如句子的一部分)的辅助预测模块匹配能看到完整输入的整个模型的预测。因为辅助模块与完整模型共享中间表征,所以这反过来又能改进整个模型。

 

简单来说,这项技术假设你有一些有标注数据和大量无标注数据。你可以在有标注的数据批和无标注的数据批之间切换。在有标注的数据批上,网络按一般方式训练。在无标注的数据批上,仅有一部分输入的「辅助网络」会尝试预测整个模型会根据整个输入预测出什么结果。因为每个辅助网络只能看到输入的一个不同的部分,因为每个辅助网络都必须学习补偿缺失的部分。但因为辅助网络和主网络的权重是共享的,因此整个模型都能从中受益。关键的是,从 softmax 的角度看,在辅助步骤计算的损失是每个网络预测的 KL 距离(较小的 softmax),而不是在整个词汇库上计算得到的。

总结

文章挺长,这里我们简单总结一下。字符级模型能解决词级模型的一些问题。值得提及的是,它们让我们可以处理几乎任意大的词汇库,并让预训练或联合训练语言模型的成本降至可接受的范围。尽管有这些潜力,它们在实践中的效果还并不明朗。我们看到了 Andrej Karpathy 和 OpenAI 在字符级语言模型上的研究成果,也见识了 DeepMind 的字符级翻译系统。这些研究表明字符级模型可以理解文本中的语义。

我们也介绍了字符级模型的一些缺点,包括有效序列规模的倍数增长、字符中固有含义的缺乏以及它们与我们想要实现的实际语言目标的距离。

最后,我们介绍了一些字符级模型的替代方法,我们看到有一些嵌入方法使用了子词单元以及弥补缺点的模型架构。我们还看到有些方法试图绕过使用 softmax 方法进行语言建模的成本——不管是通过近似 softmax 本身,还是稍微修改语言建模任务。

在 LightTag,字符级模型为我们提供了很好的服务——它们可适应多个语言领域,训练轻松且快速,而且没有需要管理的外部依赖。和生活中的一切事情一样,选择你的模型所处理的基本单位是一个权衡。既然你已经读到了这里,相信对于如何在你自己的用例中如何选择,你已经有了自己的看法。


原文链接:https://www.lighttag.io/blog/character-level-NLP/

理论NLP语言模型机器翻译
4
相关数据
Amazon机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

基于Transformer 的双向编码器表征技术

BERT是谷歌发布的基于双向 Transformer的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各种NLP任务,并刷新了 11 项 NLP 任务的当前最优性能记录。BERT的全称是基于Transformer的双向编码器表征,其中“双向”表示模型在处理某一个词时,它能同时利用前面的词和后面的词两部分信息。

半监督学习技术

半监督学习属于无监督学习(没有任何标记的训练数据)和监督学习(完全标记的训练数据)之间。许多机器学习研究人员发现,将未标记数据与少量标记数据结合使用可以显着提高学习准确性。对于学习问题的标记数据的获取通常需要熟练的人类代理(例如转录音频片段)或物理实验(例如,确定蛋白质的3D结构或确定在特定位置处是否存在油)。因此与标签处理相关的成本可能使得完全标注的训练集不可行,而获取未标记的数据相对便宜。在这种情况下,半监督学习可能具有很大的实用价值。半监督学习对机器学习也是理论上的兴趣,也是人类学习的典范。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

神经机器翻译技术

2013 年,Nal Kalchbrenner 和 Phil Blunsom 提出了一种用于机器翻译的新型端到端编码器-解码器结构 [4]。该模型可以使用卷积神经网络(CNN)将给定的一段源文本编码成一个连续的向量,然后再使用循环神经网络(RNN)作为解码器将该状态向量转换成目标语言。他们的研究成果可以说是神经机器翻译(NMT)的诞生;神经机器翻译是一种使用深度学习神经网络获取自然语言之间的映射关系的方法。NMT 的非线性映射不同于线性的 SMT 模型,而且是使用了连接编码器和解码器的状态向量来描述语义的等价关系。此外,RNN 应该还能得到无限长句子背后的信息,从而解决所谓的「长距离重新排序(long distance reordering)」问题。

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

命名实体识别技术

命名实体识别(NER)是信息提取(Information Extraction)的一个子任务,主要涉及如何从文本中提取命名实体并将其分类至事先划定好的类别,如在招聘信息中提取具体招聘公司、岗位和工作地点的信息,并将其分别归纳至公司、岗位和地点的类别下。命名实体识别往往先将整句拆解为词语并对每个词语进行此行标注,根据习得的规则对词语进行判别。这项任务的关键在于对未知实体的识别。基于此,命名实体识别的主要思想在于根据现有实例的特征总结识别和分类规则。这些方法可以被分为有监督(supervised)、半监督(semi-supervised)和无监督(unsupervised)三类。有监督学习包括隐形马科夫模型(HMM)、决策树、最大熵模型(ME)、支持向量机(SVM)和条件随机场(CRF)。这些方法主要是读取注释语料库,记忆实例并进行学习,根据这些例子的特征生成针对某一种实例的识别规则。

fastText技术

Facebook开发的文本处理工具,是一个用于高效学习单词表示和句子分类的库。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

文本挖掘技术

文本挖掘有时也被称为文字探勘、文本数据挖掘等,大致相当于文字分析,一般指文本处理过程中产生高质量的信息。高质量的信息通常通过分类和预测来产生,如模式识别。文本挖掘通常涉及输入文本的处理过程,产生结构化数据,并最终评价和解释输出。'高品质'的文本挖掘通常是指某种组合的相关性,新颖性和趣味性。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

暂无评论
暂无评论~