过去一年最有用的6个机器学习项目,你用过几个?

在过去的一年中,机器学习许多新的高影响力应用被发现并被揭示,特别是在医疗保健、金融、语音识别增强现实和更复杂的3D和视频应用中。

我们已经看到了更多的应用驱动研究,而不是理论研究。虽然这可能有其缺点,但它暂时产生了一些巨大的积极影响,即可以迅速转化为业务和客户价值的新研发。这一趋势在ML开源工作的大部分内容中得到了强烈反映。

让我们来看看过去一年中前6个最实用的ML项目。这些项目发布了代码和数据集,允许个别开发人员和小型团队学习并立即创造价值。它们可能不是理论上最具开创性的作品,但它们适用且实用。

Fast.ai

Fast.ai库的编写是为了使用现代最佳实践简化快速准确的神经网络培训。它抽象出了在实践中实施深度神经网络可能带来的所有细节工作。它非常易于使用,并且设计有从业者的应用程序构建思维模式。最初是为Fast.ai课程的学生创建的,该库以简洁易懂的方式编写在易于使用的Pytorch库之上。

网址:https://github.com/fastai/fastai

Detectron

Detectron是Facebook AI用于物体检测和实例分割研究的研究平台,用Caffe2编写。它包含各种对象检测算法的实现,包括:

  • Mask R-CNN: :使用更快的R-CNN结构的对象检测和实例分割

  • RetinaNet:一个基于特征金字塔的网络,具有独特的Focal Loss来处理难题

  • Faster R-CNN::对象检测网络最常见的结构

网址:https://github.com/facebookresearch/Detectron

FastText

另一个来自Facebook的研究,fastText库专为文本表示和分类而设计。它配备了预先训练的150多种语言的单词向量模型。这些单词向量可用于许多任务,包括文本分类,摘要和翻译。

网址:https://github.com/facebookresearch/fastText

AutoKeras

Auto-Keras是一个用于自动机器学习(AutoML)的开源软件库。它由Texas A&M大学的DATA实验室和社区贡献者开发。AutoML的最终目标是为具有有限数据科学机器学习背景的领域专家提供易于访问的深度学习工具。Auto-Keras提供自动搜索深度学习模型的最佳架构和超参数的功能。

网址:https://github.com/jhfjhfj1/autokeras

Dopamine

Dopamine是由Google创建的强化学习算法快速原型设计的研究框架。它旨在灵活且易于使用,实现标准RL算法、指标和基准

根据Dopamine的文档,他们的设计原则是:

  • 简单的实验:帮助新用户运行基准实验

  • 灵活的开发:为新用户提供新的创新想法

  • 紧凑和可靠:为一些较旧和更流行的算法提供实现

  • 可重复性:确保结果是可重复

网址:https://github.com/google/dopamine

vid2vid

vid2vid项目是Nvidia最先进的视频到视频合成算法的公共Pytorch实现。视频到视频合成的目标是学习从输入源视频(例如,一系列语义分割掩模)到精确描绘源视频内容的输出照片拟真视频的映射函数。

这个库的好处在于它的选择:它提供了几种不同的vid2vid应用程序,包括自动驾驶/城市场景,人脸和人体姿势。它还附带了丰富的指令和功能,包括数据集加载、任务评估、培训功能和多GPU!

网址:https://github.com/NVIDIA/vid2vid

参考:https://towardsdatascience.com/the-10-most-useful-machine-learning-projects-of-the-past-year-2018-5378bbd4919f

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门vid2vidDopamineAuto-KerasfastTextDetectronfast.ai机器学习
3
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

增强现实技术

增强现实,是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。这种技术于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途也越来越广。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

文本分类技术

该技术可被用于理解、组织和分类结构化或非结构化文本文档。文本挖掘所使用的模型有词袋(BOW)模型、语言模型(ngram)和主题模型。隐马尔可夫模型通常用于词性标注(POS)。其涵盖的主要任务有句法分析、情绪分析和垃圾信息检测。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

fastText技术

Facebook开发的文本处理工具,是一个用于高效学习单词表示和句子分类的库。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

语义分割技术

语义分割,简单来说就是给定一张图片,对图片中的每一个像素点进行分类。图像语义分割是AI领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。

掩饰的基于区域的卷积神经网络技术

Mask R-CNN是一个概念上简单,灵活和通用的对象实例分割框架。 该方法能够高效地检测图像中的对象,同时为每个实例生成高质量的分割蒙版。 这种方法通过添加一个用于预测对象蒙版的分支来扩展R-CNN使之更快,该分支与现有的用于边界框识别的分支并行。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~