知道吗?BAT今年在KDD上作为第一单位发表了12篇文章!(内附每篇文章解读)

如今,全世界每天都有几十亿人在使用计算机、平板电脑、手机和其它数字设备产生海量数据。各个行业和领域都已经被数据给渗透,数据已成为非常重要的生产因素的大数据时代,数据挖掘这一领域俨然引起了国际、国内工业界的广泛关注。

本文将为大家介绍国内工业界在数据挖掘方面的研究工作(主要来源于发表在数据挖掘顶级国际会议KDD上的相关论文)。这些工作既包括理论性的研究也包括一些实际应用的研究工作。

下面首先以阿里巴巴、腾讯、百度为例简单介绍一下国内工业界在数据挖掘领域顶级国际会议KDD上发表的研究工作。

阿里巴巴(Alibaba)

阿里巴巴在电子商务方面做了大量的数据挖掘研究。尤其是在表示学习和增强学习做了几个很有意思的工作。2018年阿里巴巴在数据挖掘顶级国际会议KDD上作为第一作者单位一共发表了8篇论文,我们将先为大家简要解读其中的部分文章。(论文列表附在其后,表里还包括了部分2017和2016文章)

《Deep Reinforcement Learning for Sponsored Search Real-time Bidding》

该论文介绍了阿里巴巴展示广告里面的实时投标系统的设计与实现。

以前的系统一般是通过广告搜索来做的,包括定义大量的复杂特征,通过特征学习来实现。然而这样的系统很难实现迁移。这篇文章主要介绍了一个深度增强学习方法可以有效的在复杂环境下进行自学习。下图给出了该系统的总体设计。系统底层还是一个搜索系统,再用增强学习方法通过TensorFlow进行学习。

《Reinforcement Learning to Rank in E-Commerce Search Engine: Formalization, Analysis, and Application》

该论文在搜索结果排序方面提出了在考虑利用不同步排序结果的联系的基础上,通过利用增强学习实现最大化预期累积奖励的排序策略。文章中正式定义了search session Markov decision process(SSMDP)的概念并以此表示了电子商务搜索场景下的多步排序问题。

在此基础上,作者通过证明最大化累积回报的必要性从而证明了不同步骤的排序之间是存在紧密的联系,而并非是相互独立的;作者提出了利用DPG-FBE(deterministic policy gradient with full backup estimation)算法来解决高回报差异以及不平衡的回报分配问题,实现了SSMDP下的最优排序策略。

上图中表示了在策略π下,用户进行商品搜索时的三种行为及对应行为发生的概率:购买(B,b)、继续浏览(C,c)、离开(L,l),浏览项目历史(h)及对应的状态转移,并定义了状态值函数。

《Visual Search at Alibaba》

该论文介绍的是阿里巴巴的一个可视化搜索工作,基本使用场景是用户可以实现手机端或者桌面端的基于图片的搜索。如下图的例子,当用户选择一个图片的时候,系统自动识别图片中的实体对象,然后搜索相似或者相关的图片。

在具体实现方面,阿里巴巴采用词典和特征相结合的方法,首先离线对所有图片进行表示学习(表示学习的时候同时利用了图片内容信息和对象识别结果),然后构建词典,也就是将图片映射到词典中。在在线系统中通过CNN进行图片内的对象识别和表示学习。最后和已有的索引进行匹配。

下图给出了可视化搜索系统的离线学习和在线搜索系统的总体架构。具体实现方法是结合分类建模和近邻搜索技术减小了搜索范围,实现了更加精准有效的类别预测方法。利用softmaxloss函数对GoogLeNet V1网络进行图像分类训练,得到每一种图像类别的概率;通过检索最相似的Top30图像,并对每个图像进行加权计算概率;最后,将以上的到的两个概率进行加权平均,得到最终结果。

此外,通过弱监督学习方式并基于深度CNN架构,实现了目标检测和特征表示的联合学习;通过直接使用用户的点击图像的行为作为样本来训练模型。最后通过二值特征索引和重排序技术,实现了用户移动端毫秒级别的响应。

《Perceive Your Users in Depth:Learning Universal User Representations from Multiple E-commerce Tasks》

在推荐算法方面,Yabo Ni等人提出通过多任务的综合分析学习来了解用户的普遍行为,实现更精确的预测和推荐。

  • 文章提出了一种基于多任务学习的表示学习,DUPN(Deep User Perception Network),该网络可以从多个任务中生成一种普遍的用户行为表示,这种表示能够从用户的复杂行为中提取主要特征,并可以被用到其他任务中;
  • 文章提出了一种新的基于注意力机制网络和RNN的深度架构,将电子商务中用户和项目建模为序列行为,并利用一种新的上下文行为的注意力机制来整合相应的内容和行为信息来使得能够更好地学习用户的行为向量。

模型将用户行为序列作为输入,并将每个行为传递到一个嵌入的向量空间。然后,使用LSTM和Attention-based Polling来获得一个用户表示向量。LSTM帮助建模用户行为序列,注意力网帮助从序列中提取不同权重的信息。不同人物之间可以共享这些用户表示。系统维护一个item集。对给定用户的查询,系统检索标题中包含查询词的条目,对条目进行排序,并向用户提供rank最靠前的list。

《Billion-scale Commodity Embedding for E-commerce Recommendation in Alibaba》

该文介绍了Jizhe Wang等人和香港科大的Huan Zhao等人在十亿级的电子商务网络中商品的表示学习(见上图)。他们从用户的行为历史中构建了一个项目图,并用提出用图嵌入算法来学习图中项目的表示向量,从而得到一个基于计算相似性得到的项目集。

在图嵌入算法方面,在Base Graph Embedding(BGE)的基础上,他们提出Graph Embedding with Side Information(GES)算法,通过利用辅助信息来解决与其他商品联系较少的商品问题,并进一步提出了Enhanced Graph Embedding with Side Information(EGES),通过加权机制来实现对不同辅助信息的有效利用。此外,为实现十亿级别的用户和商品计算,他们将该图嵌入系统部署在了Xtensorflow(XTF)上。

上图中SI代表辅助信息,“SI 0”为商品本身。在实际中情况中

  • Sparse features 常常是商品和不同辅助信息的one-hot-encoder向量集
  • Dense Embedding是商品的表示和相应的SI
  • Hidden representation 是一个商品和其对应的辅助信息的嵌入集

《Cascade Ranking for Operational E-commerce Search》

该论文提出了适用于运营电子商务搜索的多级级联排名模型(CLOES)。该模型综合考虑了搜索精确度、计算成本、搜索延迟以及搜索结果规模,并且在降低计算成本的同时提高了搜索的精确度。

这是第一次将级联模型用于大型电子商务搜索的公共研究(见上图)。该模型在级联的前期阶段通过利用简单并且代价较小的特征和模型过滤掉一些相关性较低的项目;之后的阶段利用更加精确但是更复杂的特征和模型来实现更加精确的排名,并提出了修改的逻辑回归补偿函数来处理前一阶段“数量过少”和“搜索延迟过高”的情况。在文中,逻辑sigmoid函数被用作单阶段分类器。2017年用于淘宝的3-stage级联模型在保证搜索精确度的情况下能够降低20%的cpu消耗。

《KunPeng: Parameter Serverbased Distributed Learning Systems and Its Applications in Alibaba and AntFinancial》

该论文介绍了蚂蚁金服提出了基于参数服务器的分布式学习系统“鲲鹏”。“鲲鹏”使得现有的一系列算法在十亿级别的样本和特征数据上的性能及效率有了极大的提高。

鲲鹏的总体架构的核心模块包括以下几部分:Server nodes:对模型做分片存储、Worker nodes:对训练数据做分片并计算、Coordinator:控制算法整体流程,如初始化,迭代,终止等、ML Bridge:使用脚本形式的工作流对数据进行预处理、PS-Core:核心的参数服务器组件 (servers/workers/coordinator)、Fuxi:监控所有机器运行状态,必要时进行容错。上图给出了鲲鹏的总体架构。

鲲鹏的使用流程对用户是完全透明的,而且开发者能够通过非常非常简单的代码实现复杂的通信和调度过程。鲲鹏架构使得常用的机器学习算法的大规模化成为了可能,截止目前,已经有众多机器学习算法在鲲鹏上得以实现和应用,包括但不限于LR,FTRL,MART,FM,HashMF,DSSM,DNN,LDA。

《A Hybrid Framework for Text Modeling with Convolutional RNN》

该论文在文本分类方面提出了conv-RNN框架。Conv-RNN综合使用和CNN和RNN并且整合了两个模型在不同方面的优点—— RNN 模型对不定长跨度的上下文依赖的编码能以及CNN 模型中常用的最大池化机制,增强了机器学习和分类的能力。

conv-RNN结构:Word embedding层:原始输入句子S中的词映射为对应的词向量,并用矩阵来表示句子;Bi-RNN层:双向RNN层,得到正向的hidden state 和反向的hidden state;Convolution layer:在RNN层得到的hidden state的基础上进行卷积,使用ReLU作为激活函数;Pooling层:用max-pooing作为池化函数,对每个卷积得到的向量进行max-pooling操作得到其中最大值。则生成对应的输入向量。

文中提出了基于句子分类的conv-RNN,在conv-RNN 之上加一个联合层,将conv-RNN得到的Xq以及之前的得到的两个hidden state向量拼接起来作为输入文本的最终表示。最后经过softmax层将向量表示映射到各个类别上,完成分类预测。

在 conv-RNN 语义编码算法基础之上,进一步提出了一种新的问答匹配模型。此外,在该模型中,还引入了一种"权值共享"机制以及 attention 方法,用以进一步提升 question-answer 匹配效果。

阿里巴巴近两年发表于KDD的论文列表

Reinforcement  Learning to Rank in  E-Commerce Search Engine: Formalization, Analysis,  and Application

收录会议:KDD’18
Perceive Your Users  in Depth: Learning  Universal User Representations from Multiple  E-commerce Tasks

收录会议:KDD’18
Billion-scale  Commodity Embedding for  E-commerce Recommendation in Alibaba

收录会议:KDD’18
Visual Search at  Alibaba

收录会议:KDD’18  
Deep Reinforcement  Learning for  Sponsored Search Real-time Bidding

收录会议:KDD’18  
Learning and  Transferring IDs Representation  in E-commerce

收录会议:KDD’18  
Deep Interest  Network for Click-Through  Rate Prediction

收录会议:KDD’18  
Learning Tree-based  Deep Model for Recommender  Systems

收录会议:KDD’18  
Cascade Ranking for  Operational E-commerce  Search

收录会议:KDD’17
KunPeng: Parameter  Server based  Distributed Learning Systems and Its Applications in  Alibaba and Ant  Financial

收录会议:KDD’17
A Hybrid Framework  for Text Modeling  with Convolutional RNN

收录会议:KDD’17
Local Algorithm for  User Action  Prediction Towards Display Ads

收录会议:KDD’17
《Optimized Cost per Click in Taobao  Display  Advertising》

收录会议:KDD’17

腾讯(Tencent)

2018年腾讯在数据挖掘顶级国际会议KDD上作为第一作者单位一共发表了2篇论文,下面简要解读其中的部分文章。(论文列表附在其后,表里还包括了部分合作文章)

《MIX: Multi-Channel Information Crossing for Text Matching》

该论文提出利用多通道信息交叉进行文本匹配模型MIX。MIX融合了CNNs和注意力机制,通过提取多个粒度的特征得到MIX表示的文本片段,然后通过semetic information channel 和 structutal information channel(用作attention mechanism)进行文本匹配得到精确的匹配结果。

上图给出了多粒度建模的总体框架。具体方法分为三步:

Step1:句子在不同的粒度被分割成不同的片段;

Step2:在attention units部分,通过提取语法信息来设计attention channels中的注意矩阵。

Step3:如图weighed channels 和2D-convolution部分所示,通过交叉局部匹配通道和注意通道,提取显著特征组合进行局部匹配。

《On the Generative Discovery of Structured Medical Knowledge》

在智能医疗领域,芝加哥大学的Chenwei Zhang和腾讯的Yaling Li等人引入了一种生成式的视角来研究关系医学实体对发现问题,旨在在最小化数据需求的同时,扩大高质量而又新颖的结构化新医学知识的规模。

他们提出了Conditional Relationship Variational Autoencoder(CRVAE)模型,在没有复杂特征工程的情况下,通过单独地从不同维度表达的实体对学习共性,该模型可以生成性的发现特定医疗关系下的实体对,并在模型编码的过程中获得关系增强的实体表示。

编码器接收关系医疗实体对和关系指示作为输入,通过训练来加强医疗实体对的表示,并编码对每一种医疗关系的不同种实体对表示,作为潜在空间。解码器进行共同训练,并重建实体对。生成器与解码器结构相同,然而,它并没有重建输入中给出的关系医疗实体对,而是直接从学习到的潜在变量分布中抽取样本,为特定关系生成有意义的医疗关系。

腾讯2018年发表于KDD的论文列表

MIX: Multi-Channel  Information Crossing  for Text Matching

收录会议:KDD’18
On the Generative  Discovery of  Structured Medical Knowledge

收录会议:KDD’18
An Efficient  Two-Layer Mechanism for  Privacy-Preserving Truth Discovery

收录会议:KDD’18

百度(Baidu)

2018年百度在数据挖掘顶级国际会议KDD上作为第一作者单位一共发表了2篇论文。下面简要解读其中的部分文章。(论文列表附在其后,表里还包括了2017年的文章)

《Du-Parking: Spatio-Temporal Big Data Tells You Real time Parking Availability》

该论文提出了基于时间和空间大数据的实时停车可用性方案Du-Parking。该方案是一种基于DNN的学习方法,它由三个主要部分组成,分别是建模速度、时间和一般影响,通过利用在线传感器以及多种数据库的结合并对时间和空间特征有区别的处理,来提供实时停车可用性信息,上图给出了整个框架图。

Grid Computing:该组件是一个离线分布式系统,主要有三种功能:

  1. 基本静态特征提取:POI相关特性被从百度地图的数据仓库中提取出来用于训练和预测。
  2. sample processing: 系统将每30分钟从百度地图获取的实时停车场占用数据转换为标记样本数据。存储在数据库中的示例数据,用于离线学习和评估。
  3. 模型训练:训练数据集由带标签的样本数据和所有由静态特征和动态特征组成的特征生成。该模型分别针对每个POI类别进行了训练。

    Real time streaming computation: 一个实时处理地理位置坐标、导航数据的流计算系统。系统获取地理坐标和导航轨迹,并将每个坐标映射成一个地理网格索引。然后将映射的数据存储在内存数据库中进行在线预测。

Online service: 通过获取POI相关特性,从数据库检索实时位置和导航轨迹,将所有特性融合成一个单一的特征向量,通过训练的模型预测停车可用性水平。

《Exploring the Urban Region-of-Interest through the Analysis of Online Map Search Queries》

该论文提出通过Region-of-Interest来研究城市中人的活动,并通过对在线地图查询日志中大规模数据的挖掘提出了一套系统性的研究方法。

他们首先将城市地区分成小的网格区域,然后通过提取查询数据中区域网格之间的流动量形成一个转移矩阵,然后通过PageRank算法计算出每个网格的流行度,并进一步利用密度算法对网格进行聚类以检测ROIs。

在第二个任务中,设计了一个时空潜在因子模型URPTM,用于发现ROI访问者潜在的旅游主题。在模型中,每个ROI都被看作是一个文档,而地图查询中的时间、原点和POI标记则被看作是单词。在学习模型后,我们可以得到每个ROI的访问者的时空偏好,这可以用于很多应用,比如旅游需求分析和目标ROI分割。

《Recruitment Market Trend Analysis with Sequential Latent Variable Models》

该论文用序列潜变量模型分析招聘市场趋势,首次尝试了利用无监督学习方法对招聘市场的趋势进行自动建模。为招聘市场分析提供了新的研究范式。

文中提出了一种名为MTLVM的新的顺序潜在变量模型,它是为了捕获企业招聘状态的时间依赖性而设计的,能够在贝叶斯生成框架中自动学习潜在招聘主题。此外,为了捕获随时间变化的招聘主题,文中为MTLVM设计了分级Dirichlet流程。这些过程允许动态生成招聘主题。最后,文中实现了一个基于大规模实际招聘数据的原型系统来对其的方法进行实证评估。该模型生成的方法可以发现招聘市场趋势,为招聘人员和求职者提供指导。

在样本中通过Diriclet过程生成的潜在因子以及结合现有招募状态,来生成招募要求。再由生成招募主题,每一个招募职位都由相应的决定的多项式分布生成。

《Prospecting the Career Development of Talents: A Survival Analysis Perspective》

该论文介绍了Huayu Li等人研究的企业内部人才职业发展问题,提出了一种基于多任务学习和排序约束公式的新的生存分析方法对员工的生涯路径进行建模。在不同的排名约束和预测目标下,它能够对人才管理中的两个关键问题——人员流动和职业发展——进行建模。

具体来说,为了对员工的离职行为进行建模,文中通过考虑将每段时间间隔的预测作为任务,从而将每隔一段时间序列的生存状态预测作为多任务学习的问题。为了对经过审查和未经审查的数据进行建模,并利用非周期性和周期性事件捕获一般生命周期建模中显示出的本质属性,文中对每一对不同的生存状态标签施加了排名约束。对于职业生涯发展的建模,文中将每个时间间隔的相对职业水平预测作为一个任务,使用不同等级的排名约束来提高性能准确率。最后,在真实世界的数据上的广泛实验结果清楚地验证了模型的有效性。

 百度近三年发表于KDD的论文列表

《Du-Parking: Spatio-Temporal Big Data  Tells You Realtime Parking Availability》

收录会议:KDD’18
《Exploring the Urban Region-of-Interest  through the Analysis of Online Map Search Queries》

收录会议:KDD’18
《Prospecting the Career Development of  Talents: A Survival Analysis Perspective》

收录会议:KDD’17
《Recruitment Market Trend Analysis with  Sequential Latent Variable Models》

收录会议:KDD’16
《Days on Market: Measuring Liquidity in  Real Estate Markets》

收录会议:KDD’16


AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门数据挖掘KDD 2018百度腾讯阿里巴巴
1
相关数据
池化技术

池化(Pooling)是卷积神经网络中的一个重要的概念,它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效的原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。

逻辑回归技术

逻辑回归(英语:Logistic regression 或logit regression),即逻辑模型(英语:Logit model,也译作“评定模型”、“分类评定模型”)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。

激活函数技术

在 计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到"开"(1)或"关"(0)输出的数字网络激活函数。这与神经网络中的线性感知机的行为类似。 一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

调度技术

调度在计算机中是分配工作所需资源的方法。资源可以指虚拟的计算资源,如线程、进程或数据流;也可以指硬件资源,如处理器、网络连接或扩展卡。 进行调度工作的程序叫做调度器。调度器通常的实现使得所有计算资源都处于忙碌状态,允许多位用户有效地同时共享系统资源,或达到指定的服务质量。 see planning for more details

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

文本分类技术

该技术可被用于理解、组织和分类结构化或非结构化文本文档。文本挖掘所使用的模型有词袋(BOW)模型、语言模型(ngram)和主题模型。隐马尔可夫模型通常用于词性标注(POS)。其涵盖的主要任务有句法分析、情绪分析和垃圾信息检测。

线搜索技术

最优化问题中,线搜索是一种寻找目标函数 的局部最小值 的近似方法。 它是最基础的迭代近似方法之一,另一种是置信域方法。 线搜索近似首先找到一个使目标函数 下降的方向,然后计算 应该沿着这个方向移动的步长。 下降方向可以通过多种方法计算,比如梯度下降法,牛顿法和拟牛顿法。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

最大池化技术

最大池化(max-pooling)即取局部接受域中值最大的点。

数据挖掘技术

数据挖掘(英语:data mining)是一个跨学科的计算机科学分支 它是用人工智能、机器学习、统计学和数据库的交叉方法在相對較大型的数据集中发现模式的计算过程。 数据挖掘过程的总体目标是从一个数据集中提取信息,并将其转换成可理解的结构,以进一步使用。

特征工程技术

特征工程是利用数据所在领域的相关知识来构建特征,使得机器学习算法发挥其最佳的过程。它是机器学习中的一个基本应用,实现难度大且代价高。采用自动特征工程方法可以省去采用人工特征工程的需求。Andrew Ng 说“挖掘特征是困难、费时且需要专业知识的事,应用机器学习其实基本上是在做特征工程。”

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

GoogLeNet技术

同样在2014年,谷歌提出了 GoogLeNet(或Inception-v1)。该网络共有22层,且包含了非常高效的Inception模块,它同样没有如同VGG-Net那样大量使用全连接网络,因此参数量非常小。GoogLeNet最大的特点就是使用了Inception模块,它的目的是设计一种具有优良局部拓扑结构的网络,即对输入图像并行地执行多个卷积运算或池化操作,并将所有输出结果拼接为一个非常深的特征图。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

数据仓库技术

动量技术

优化器的一种,是模拟物理里动量的概念,其在相关方向可以加速SGD,抑制振荡,从而加快收敛

多任务学习技术

图像分类技术

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

暂无评论
暂无评论~