寒冬里的炭火:机器之心2018高分教程合集

在过去的一年里,机器之心发布了许多关于基础知识、进阶技能、人生选择等方面的教程文章。为了方便广大读者查阅,小编将这些文章打包成一篇合集(加链接加到手疼……),作为2018年末大礼包送给大家。

本文盘点了机器之心 2018 年 2 月~12 月的教程精华,分为入门、语言、框架、数据、进阶、人生选择、Just for Fun 七大板块,从基本概念到深度解析,从语言到框架,从读博到就业……既有理论,也有实战;既有精华文章,也有视频、教科书、笔记。总之,你想要的,这里都有。

入门

基本概念

机器学习深度学习强化学习……刚入门的你是不是觉得这些概念很难区分?仔细读以下几篇文章,迈出 AI 之路第一步:

入门 | 诗人般的机器学习,ML 工作原理大揭秘

入门 | 机器学习第一课:决策树学习概述与实现

入门 | 献给新手的深度学习综述

这是一份「不正经」的深度学习简述

入门 | 强化学习的基本概念与代码实现

入门 | 从零开始,了解元学习

入门 | 关于神经网络:你需要知道这些

入门 | 机器学习研究者必知的八个神经网络架构

入门 | 一文看懂卷积神经网络

入门 | 一文简述循环神经网络

教程 | 重新发现语义分割,一文简述全卷积网络

教程 | 一步一步,看图理解长短期记忆网络与门控循环网络

入门 | 走近流行强化学习算法:最优 Q-Learning

教程 | 算法太多挑花眼?教你如何选择正确的机器学习算法

解读实践中最广泛应用的分类模型:朴素贝叶斯算法

入门 | 奇异值分解简介:从原理到基础机器学习应用

入门 | 一文简述深度学习优化方法——梯度下降

入门 | 什么是自注意力机制?

入门 | 今天是雾霾,明天是什么?马尔可夫链告诉你

入门 | 我们常听说的置信区间与置信度到底是什么?

入门 | 机器学习模型的衡量不止准确率:还有精度和召回率

入门 | 贝叶斯线性回归方法的解释和优点

入门 | CNN 也能用于 NLP 任务,一文简述文本分类任务的 7 个模型

入门 | 自然语言处理是如何工作的?一步步教你构建 NLP 流水线

入门 | 6 大最流行、最有用的自然语言处理库对比

入门 | 从 VGG 到 NASNet,一文概览图像分类网络

入门 | 一文了解什么是语义分割及常用的语义分割方法有哪些

数学知识

数学在机器学习中非常重要,不论是在算法上理解模型代码,还是在工程上构建系统,数学都必不可少。2018 年,机器之心发布了多位「独秀同学」本着「再看不懂就 sǐ给你看」的态度写的数学知识解读,帮你完成从入门到精通(不放弃)的进阶之路。

入门 | 这是一份文科生都能看懂的线性代数简介

入门 | 10 个例子带你了解机器学习中的线性代数

入门 | 一文介绍机器学习中基本的数学符号

入门 | 初学机器学习:直观解读 KL 散度的数学概念

教程 | 如何理解 KL 散度的不对称性

观点 | 我们该如何学习机器学习中的数学

入门 | 机器学习中常用的损失函数你知多少?

专栏 | 从入门到高阶,读懂机器学习需要哪些数学知识(附网盘)

详解蒙特卡洛方法:这些数学你搞懂了吗?

资源 | 用 Python 和 NumPy 学习《深度学习》中的线性代数基础

资源 | 来自独秀同学的深度网络数学笔记,还不快收藏?

机器学习中的数学,这是一份新鲜出炉的热门草稿

教材/课程

当然,要成功入门 AI,读几篇文章、掌握一点碎片知识是远远不够的,以下课程、教材帮你系统梳理了入门所需的基础知识。

从基础概念到数学公式,这是一份 520 页的机器学习笔记(图文并茂)

资源 | Bloomberg 推出在线免费课程:《机器学习基础》

一门面向所有人的人工智能公开课:MIT 6.S191,深度学习入门

资源 | 阿里发布免费深度学习课程:从感知机开始说起

新手福利:免费百页机器学习入门书 

线性代数张量?这本开放书籍帮你扫清通往 ML 的数学绊脚石

想回炉再造一波统计学?这本斯坦福大学教材也许能帮你

这是一本好玩的可视化统计概率入门书

读论文

学完了入门课程,是时候读一些论文了。但论文那么多,究竟怎么读?这里有两篇文章帮你解锁读论文的正确姿势。

死磕论文前,不如先找齐一套好用的工具

入门 | 学完了在线课程?如何开启深度学习论文的阅读模式

工具

学了这么多理论知识,当然要来点实战检验一下。但在此之前,你还要 get 两样工具——GitHub 和 Jupyter Notebook。前者是一个大型代码库,是开发人员和公司托管项目、文档和代码的常用平台。后者是一款免费、开源的交互式 web 工具,你可以利用该工具将软件代码、计算输出、解释文本和多媒体资源组合在一个文档中。以下几篇文章将告诉你如何更好地利用这两个工具。

业界 | 为什么 Jupyter数据科学家们实战工具的首选?

我知道你会用 Jupyter Notebook,但这些插件你都会了吗?

入门 | 敲黑板!你和 GitHub 高手就差这三条规则······

实战

实战开始!Are you ready?

想要实现深度神经网络?一张 Excel 表格就够了

搭建模型第一步:你需要预习的 NumPy 基础都在这了

入门 | 无需基础知识,使用 JavaScript 构建你的第一个神经网络

想入门设计卷积神经网络?这是一份综合设计指南

从统计到概率,入门者都能用 Python 试验的机器学习基础

无需深度学习框架,如何从零开始用 Python 构建神经网络

教程 | 用 Scikit-Learn 构建 K-近邻算法,分类 MNIST 数据集

教程 | 通过 Python 实现马尔科夫链蒙特卡罗方法的入门级应用

如何从零开始构建深度学习项目?这里有一份详细的教程

教程 | 仅需六步,从零实现机器学习算法!

机器学习算法如何调参?这里有一份神经网络学习速率设置指南

教程 | 如何使用纯 NumPy 代码从头实现简单的卷积神经网络

构建深度神经网络,我有 20 条「不成熟」的小建议

入门 | 深度学习模型的简单优化技巧

谷歌机器学习 43 条规则:机器学习工程的最佳实践经验

入门 | 如何通过梯度检验帮助实现反向传播

资源 |《统计学习方法》的 Python 3.6 复现,实测可用

入门 | 三行 Python 代码,让数据预处理速度提高 2 到 6 倍

资源 | 简单快捷的数据处理,数据科学需要注意的命令行

入门 | 神经网络词嵌入:如何将《战争与和平》表示成一个向量?

教程 | 如何用 50 行代码构建情感分类器

入门 | 自然语言处理是如何工作的?一步步教你构建 NLP 流水线

入门 | 6 大最流行、最有用的自然语言处理库对比

教程 | 如何在 Tensorflow.js 中处理 MNIST 图像数据

增加检测类别?这是一份目标检测的基础指南

语言

Python

随着机器学习的兴起,Python 逐步成为了「最受欢迎」的语言。它简单易用、逻辑明确并拥有海量的扩展包,因此其不仅成为机器学习数据科学的首选语言,同时在网页、数据爬取可科学研究等方面成为不二选择。此外,很多入门级的机器学习开发者都是随大流选择 Python(参见《人生苦短,为什么我要用 Python?》)。Stack Overflow 将 Python 称为「增长最快的主要编程语言」,Indeed.com 估计美国的 Python 开发人员平均年收入将超过 JavaScript 和 Java 的开发人员,达到 114,811 美元(参见《业界 | 2018 最流行的编程语言 Top 3(附薪资情况)》)。人生苦短,你还有什么理由不学 Python?

资源 | 开放 Python 书籍:一本短小精悍的初学者入门指南

资源 | Python 技巧 101:这 17 个骚操作你都 Ok 吗

WTF Python:有趣且鲜为人知的 Python 特性

这些 Python 代码技巧,你肯定还不知道

资源 | 忘了 Python 关键语句?这份备忘录拯救你的记忆

世界上最好的 Python 编辑器是什么?我投 PyCharm 一票

入门 | 一文带你了解 Python 集合与基本的集合运算

资源 | 一个 Python 特征选择工具,助力实现高效机器学习

教程 | 入门 Python 神经机器翻译,这是一篇非常精简的实战指南

资源 | 让你事半功倍的小众 Python 库

码如其人,同学你能写一手漂亮的 Python 函数吗

除了冒泡排序,你知道 Python 内建的排序算法吗?

业界 | 四大机器学习编程语言对比:R、Python、MATLAB、Octave

Julia

今年 8 月份,Julia 1.0 正式发布,在社区内引发了极大的关注,成为热度上升最快的编程语言之一,下载量超过 200 万次,下载者包括谷歌、Facebook、FAA 和美国能源部等各个部门的开发者。该语言期望结合 C 的速度、Matlab 的数学表征、Python 的通用编程与 Shell 的胶水命令行,并构建开源、自由与便捷的编程语言。想成为斜杠青年,不多学点语言怎么行?

Julia 1.0 正式发布,这是新出炉的一份简单中文教程

后 Python 时代,Julia 告诉你速度和灵活性真的都可以有

教程 | 如何在 Julia 编程中实现 GPU 加速

有了 Julia 语言,深度学习框架从此不需要计算图

框架

深度学习机器学习领域最热门的方向之一,而 Python 又是深度学习使用的热门语言,因此,能兼容 Python 的框架非常值得学习。下面我们将介绍两份框架学习教程。

TensorFlow

Kaggle 上的一份排行榜从领英职位需求、谷歌搜索热度、Medium 文章数、arXiv 论文数和 GitHub 活跃度等方面审视了不同的框架,发现 TensorFlow 是绝对赢家。在 GitHub 活跃度、谷歌搜索、Medium 文章数、亚马逊书籍和 arXiv 论文这些数据源上,它所占的比重都是最大的。此外,TensorFlow 还拥有最多的开发者用户,出现在最多的在线职位描述中。因此,框架还要从 TensorFlow 学起。

入门 | 关于 TensorFlow,你应该了解的 9 件事

令人困惑的 TensorFlow

令人困惑的 TensorFlow!(II)

揭秘框架的本源:开源中文书「TensorFlow 内核剖析」

教程 | 如何在 TensorFlow 中高效使用数据集

学习了!谷歌今日上线基于 TensorFlow机器学习速成课程(中文版)

从框架优缺点说起,这是一份 TensorFlow 入门极简教程

资源 | 英语不行?你可以试试 TensorFlow 官方中文版教程

入门 | TensorFlow 的动态图工具 Eager 怎么用?这是一篇极简教程

教程 | 如何在 Tensorflow.js 中处理 MNIST 图像数据

资源 | TensorFlow 推出新工具 Seedbank:即刻使用的预训练模型库

TensorFlow 发布重要更新 AutoGraph,自动将 Python 转化为 TF 计算图

PyTorch

自 2017 年 1 月推出以来,PyTorch 热度持续上升,一度有赶超 TensorFlow 的趋势。PyTorch 能在短时间内被众多研究人员和工程师接受并推崇是因为其有着诸多优点,如采用 Python 语言、动态图机制、网络构建灵活以及拥有强大的社群等。因此,走上学习 PyTorch 的道路已刻不容缓。

快速上手笔记,PyTorch 模型训练实用教程(附代码)

PyTorch 1.0 正式版发布了!

从基础概念到实现,小白如何快速入门 PyTorch

教程 | 从头开始了解 PyTorch 的简单实现

库、教程、论文实现,这是一份超全的 PyTorch 资源列表(Github 2.2K 星)

还不会使用 PyTorch 框架进行深度学习的小伙伴,看过来

PyTorch 为何如此高效好用?来探寻深度学习框架的内部架构

教程 | PyTorch 经验指南:技巧与陷阱

教程 | 如何通过 PyTorch 上手 Tensor Comprehensions?

从零开始 PyTorch 项目:YOLO v3 目标检测实现

教程 | 从零开始 PyTorch 项目:YOLO v3 目标检测实现(下)

教程 | 如何直观地理解条件随机场,并通过 PyTorch 简单地实现

Oracle 开源 GraphPipe:几行代码让你在 TensorFlow 部署 PyTorch 模型

资源 | 用 PyTorch 搞定 GluonCV 预训练模型,这个计算机视觉库真的很好用

PaddlePaddle

百度深度学习框架 PaddlePaddle 自 2016 年开源以来,受到了业界的广泛关注。不久之前,PaddlePaddle 1.0 正式发布。这一由中国科技巨头开源的首个深度学习框架为我们提供了超全的官方模型支持和最完善的移动端硬件支持。更重要的是,这一框架非常适合国内开发者,有兴趣的geek可以从以下教程入手。

专栏 | 新手入门?一步一步教你如何安装 PaddlePaddle 

专栏 | 百度深度学习平台 PaddlePaddle 框架解析

最适合中国开发者的深度学习框架:走向成熟的 PaddlePaddle 1.0

专栏 | 有趣!用计算机视觉技术与 PaddlePaddle 打造 AI 控烟项目

专栏 | 在 PaddlePaddle 上实现 MNIST 手写体数字识别

专栏 | 百度 PaddlePaddle 的新特性与大规模稀疏数据分布式模型训练

专栏 | 云脑科技-实习僧文本匹配模型及基于百度 PaddlePaddle 的应用

数据

数据是人工智能发展的一大基石。这部分教程包含了 AI 研究者、工程师等相关人员需要的数据集和数据可视化方法。

数据集

AI 研发者福利!谷歌推出数据集搜索专用引擎 Dataset Search

入门 | 从文本处理到自动驾驶机器学习最常用的 50 大免费数据集

资源 |「蜘蛛」来了!耶鲁大学 11 名学生标注完成大规模复杂跨域 Text-to-SQL 数据集 Spider

资源 | 这是一份非常全面的开源数据集,你,真的不想要吗?

资源 | 1460 万个目标检测边界框:谷歌开源 Open Images V4 数据集

资源 | 图像配对数据集 TTL:展现人类和机器判断图像相似性的差异

资源 | 百万级字符:清华大学提出中文自然文本数据集 CTW

资源 | 从图像处理语音识别,25 款数据科学家必知的深度学习开放数据集

资源 | 伯克利发布 BDD100K:目前最大规模开放驾驶视频数据集

资源 | 让 AI 学会刨根问底和放飞自我,斯坦福最新问答数据集 CoQA

资源 | Chinese Word Vectors:目前最全的中文预训练词向量集合

资源 |「火锅问答」是啥?面向自然语言和多步推理问题,新型问答数据集 HotpotQA 面世

教程 | 如何构建自定义人脸识别数据集

数据可视化

4 种更快更简单实现 Python 数据可视化的方法

教程 | 如何利用散点图矩阵进行数据可视化

教程 | 5 种快速易用的 Python Matplotlib 数据可视化方法

从 1 维到 6 维,一文读懂多维数据可视化策略

进阶


掌握了基础知识,学了语言、框架,想不想在 AI 之路上再进一步呢?这一部分盘点了机器学习深度学习强化学习计算机视觉自然语言处理方面的理论知识、实践经验及工程技巧,此外还有全面、深入的详解、综述、竞赛类文章,既适合研究人员,也适合各个领域的工程师阅读学习。

机器学习

资源 | 这是一份收藏量超过 2 万 6 的计算机科学学习笔记

资源 | 吴恩达《ML Yearning》52 章译文,一份很有诚意的 GitHub 项目

奔走相告!亚马逊内部机器学习课程现向大众免费开放

资源 | 源自斯坦福 CS229,机器学习备忘录在集结

资源 | 吴恩达机器学习》笔记,哥大研究生献上

斯坦福统计学习理论笔记:Percy Liang 带你搞定「贼难」的理论基础

演讲 | 技术讲解概率机器学习——深度学习革命之后 AI 道路

举两个栗子:如何正确建立个人的机器学习项目集

深度学习

资源 | 吴恩达 deeplearning.ai 五项课程完整笔记了解一下?

302 页吴恩达 Deeplearning.ai 课程笔记,详记基础知识与作业代码

这是一份优美的信息图,吴恩达点赞的 deeplearning.ai 课程总结

吴恩达授课,斯坦福 CS230 深度学习课程资源开放

深度学习贝叶斯,这是一份密集的 6 天速成课程(视频与 PPT)

资源 | 李沐等人开源中文书《动手学深度学习》预览版上线

资源 | 李沐《动手学深度学习》课程视频汇总

想要自学深度学习?不用 GPU,浏览器就够了

生成模型学习笔记:从高斯判别分析到朴素贝叶斯

观点 | 如何优雅地从四个方面加深对深度学习的理解

超参数搜索不够高效?这几大策略了解一下

教程 | 如何使用 Kubernetes 轻松部署深度学习模型

GPU 捉襟见肘还想训练大批量模型?谁说不可以

RTX 2080 时代,如何打造属于自己的深度学习机器

教程 | 从超参数到架构,一文简述模型优化策略

强化学习

DeepMind 推出深度学习强化学习进阶课程(附视频)

资源 |《深度强化学习》手稿开放了!

从 Zero 到 Hero,OpenAI 重磅发布深度强化学习资源

MIT 科学家 Dimitri P. Bertsekas 最新 2019 出版《强化学习最优控制》(附书稿 PDF&讲义)

MILA 2018 夏季深度学习强化学习课程资源大放送

资源 | Bengio 等人的 2018 夏季课程视频终放出,但有些沉重

资源 | 学到了!UC Berkeley CS 294 深度强化学习课程(附视频与 PPT)

「AlphaGo 之父」David Silver 最新演讲,传授强化学习的十大原则

计算机视觉

教程 | 单级式目标检测方法概述:YOLOSSD

深度 | 像玩乐高一样拆解 Faster R-CNN:详解目标检测的实现过程

教程 | 用摄像头和 Tensorflow.js 在浏览器上实现目标检测

从 R-CNN 到 RFBNet,目标检测架构 5 年演进全盘点

从 RCNN 到 SSD,这应该是最全的一份目标检测算法盘点

教程 | GitHub 项目:利用不完整的数据样本补全不完整的图像

观点 | 如何可视化卷积网络分类图像时关注的焦点

教程 | 可视化 CapsNet,详解 Hinton 等人提出的胶囊概念与原理

教程 | 在 Keras 上实现 GAN:构建消除图片模糊的应用

教程 | TF 官方博客:基于 TensorFlow.js 框架的浏览器实时姿态估计

深度 | 图像语义分割的工作原理和 CNN 架构变迁

世界上最好的语言 PHP:我也可以用 OpenCV计算机视觉

资源 | 从人脸检测到语义分割OpenCV 预训练模型库

资源 | 用 PyTorch 搞定 GluonCV 预训练模型,这个计算机视觉库真的很好用

自然语言处理

期待已久!邓力、刘洋等合著的这本 NLP 书你确定不想看?

254 页 PPT!这是一份写给 NLP 研究者的编程指南

自然语言处理最新教材开放下载,乔治亚理工大学官方推荐

专栏 | NLP 概述和文本自动分类算法详解

图解当前最强语言模型 BERT:NLP 是如何攻克迁移学习的?

Facebook 开源 NLP 建模框架 PyText,从论文到产品部署只需数天

教程 | 利用 AllenNLP,百行 Python 代码训练情感分类器

资源 | 正则表达式的功法大全,做 NLP 再也不怕搞不定字符串了

深度 | 从各种注意力机制窥探深度学习在 NLP 中的神威

教程 | 比 Python 快 100 倍,利用 spaCy 和 Cython 实现高速 NLP 项目

教程 | 如何通过 Scikit-Learn 实现多类别文本分类

教程 | 如何使用 LSTM 在 Keras 中快速实现情感分析任务

教程 | 用 TensorFlow Estimator 实现文本分类

教程 | 如何快速训练免费的文本生成神经网络

资源 | 自然语言语义代码搜索之路

教程 | Adrian 小哥教程:如何使用 Tesseract 和 OpenCV 执行 OCR 和文本识别

深度 | 当前最好的词句嵌入技术概览:从无监督学习转向监督、多任务学习

专栏 | 如何做好文本关键词提取?从三种算法说起

机器学习时代的哈希算法,将如何更高效地索引数据

综述/详解/竞赛

深度 | 贝叶斯、香农、奥卡姆合写博客「机器学习是什么」

从七桥问题开始:全面介绍图论及其应用

从冷战到深度学习:一篇图文并茂的机器翻译

从起源到具体算法,这是一份适合所有人读的深度学习综述论文

一图抵千言:带你了解最直观的神经网络架构可视化

学界 | 综述论文:四大类深度迁移学习

从数学到实现,全面回顾高斯过程中的函数最优化 

深度 | 传说中的推土机距离基础,最优传输理论了解一下

深度 | 最优传输理论你理解了,传说中的推土机距离重新了解一下

理解随机森林:基于 Python 的实现和解释

深度学习时代的图模型,清华发文综述图网

清华大学图神经网络综述:模型与应用

教程 | 22 分钟直冲 Kaggle 竞赛第二名!一文教你做到

Kaggle Grandmaster 是怎样炼成的

业界 | 如何达到 Kaggle 竞赛 top 2%?这里有一篇特征探索经验帖

人生选择

继续深造还是就业?每个即将走出校门的人面临这种艰难的人生选择,甚至有些已经就业的人也在考虑重新选择。这里有一些过来人给出了一些实用的人生建议/职业指导,希望对你有所启发。

读博

想要入坑机器学习?这是 MIT 在读博士的 AI 心得

观点 | 机器学习博士生的基本素养:除了硬技能,还要学会与导师相处

求生之路:博士生涯的 17 条简单生存法则

专栏 | UC Berkeley 刘畅流博士:湾区五年博士路

观点 | 博士离开学术界算不算失败?牛津大学博士有话要说

Nature:刚入校门的 PhD 们还可以抢救一下

写在博士旅程之前——前大疆创新技术总监杨硕

观点 | 读博有风险,入坑需谨慎

我的八年博士生涯——CMU 王赟写在入职 Facebook 之前

我收到了斯坦福、UCL、CMU、NYU、UW 的博士 offer,这是我的经验

就业

从构建关系网到面试最后一问,这是一份 AI 公司应聘全面指南

资源 | 25 个机器学习面试题,期待你来解答

计算机科学专业毕业?这是给你的职业建议(亮点在最后)

手写二叉树?程序员面试最常见问题 TOP 48

从苹果店员到机器学习工程师:学习 AI,我是这样起步的

入门 | 如果是个穷光蛋:如何从零开始学习成为一个数据科学家?

Just for Fun!

2018 年,谷歌的「猜画小歌」在朋友圈火了一把,众多吃瓜群众惊呼「amazing!」这些小程序的出现拉近了 AI 与大众的距离,又好玩又亲切,想不想自己做一个出来玩呢?

教程 | 如何利用 TensorFlow.js 部署简单的 AI 版「你画我猜」图像识别应用

教程 |「川言川语」:用神经网络 RNN 模仿特朗普的语言风格

超有趣!手把手教你使用树莓派实现实时人脸检测

教程 | 用 Python 实现类 FaceID 的人脸识别?一文告诉你该怎么做

教程 | 如何使用 DeepFake 实现视频换脸

教程 |「世界模型」实现,一步步让机器掌握赛车和躲避火球的技能

教程 | 强化学习训练 Chrome 小恐龙 Dino Run:最高超过 4000 分

教程 | 用深度学习 DIY 自动化监控系统

往年教程盘点

2017:灵魂追问 | 教程那么多,你……看完了吗?

2016:人工智能从入门到进阶,机器之心高分技术文章全集

入门教程机器之心
26
相关数据
亚马逊机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
OpenAI 机构

OpenAI是一家非营利性人工智能研究公司,旨在以惠及全人类的方式促进和发展友好的人工智能。OpenAI成立于2015年底,总部位于旧金山,旨在通过向公众开放其专利和研究与其他机构和研究人员“自由合作”。创始人的部分动机是出于对通用人工智能风险的担忧。

https://www.openai.com/
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

云脑科技机构

云脑科技成立于2015年5月,是一家跨越中美两地的人工智能行业平台公司,在深度学习(RNN/CNN)、增强学习、NLP、知识图谱领域均拥有大规模项目成功实践经验。

邓力人物

邓力,本科毕业于中国科学技术大学,随后在威斯康星大学麦迪逊分校获的硕士和博士学位。曾任微软人工智能首席科学家。邓力2009 年就同 Geoffrey Hinton 教授合作,首次提出并将深度神经网络应用到大规模语言识别中,显著提高了机器对语音的识别率,极大推动了人机交互领域的发展与进步。2017年5月,他加入了市值300亿美元的对冲基金Citadel并担任首席人工智能官。

李沐人物

李沐,2008年毕业于上海交通大学计算机系,大学期间,曾在微软亚洲研究院担任实习生。2017年博士毕业后,李沐加入亚马逊任AI主任科学家。

吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

排序算法技术

排序算法是将一串数据依照特定排序方式进行排列的算法,最常用到的排序方式是数值顺序以及字典顺序。基本上,排序算法的输出必须遵守下列两个原则:输出结果为递增序列(递增是针对所需的排序顺序而言);输出结果是原输入的一种排列、或是重组。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

全卷积网络技术

全卷积网络最开始在论文 Fully Convolutional Networks for Semantic Segmentation(2015)中提出,它将传统卷积神经网络最后几个全连接层替换为卷积层。引入全卷积的意义在于它能实现密集型的预测,即在二维卷积下对图像实现像素级的分类,在一维卷积下对序列实现元素级的预测。

基于Transformer 的双向编码器表征技术

BERT是谷歌发布的基于双向 Transformer的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各种NLP任务,并刷新了 11 项 NLP 任务的当前最优性能记录。BERT的全称是基于Transformer的双向编码器表征,其中“双向”表示模型在处理某一个词时,它能同时利用前面的词和后面的词两部分信息。

深度强化学习技术

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

神经机器翻译技术

2013 年,Nal Kalchbrenner 和 Phil Blunsom 提出了一种用于机器翻译的新型端到端编码器-解码器结构 [4]。该模型可以使用卷积神经网络(CNN)将给定的一段源文本编码成一个连续的向量,然后再使用循环神经网络(RNN)作为解码器将该状态向量转换成目标语言。他们的研究成果可以说是神经机器翻译(NMT)的诞生;神经机器翻译是一种使用深度学习神经网络获取自然语言之间的映射关系的方法。NMT 的非线性映射不同于线性的 SMT 模型,而且是使用了连接编码器和解码器的状态向量来描述语义的等价关系。此外,RNN 应该还能得到无限长句子背后的信息,从而解决所谓的「长距离重新排序(long distance reordering)」问题。

Julia技术

Julia 是MIT设计的一个面向科学计算的高性能动态高级程序设计语言,项目大约于2009年中开始,2018年8月JuliaCon2018 发布会上发布Julia 1.0。据介绍,Julia 目前下载量已经达到了 200 万次,且 Julia 社区开发了超过 1900 多个扩展包。这些扩展包包含各种各样的数学库、数学运算工具和用于通用计算的库。除此之外,Julia 语言还可以轻松使用 Python、R、C/C++ 和 Java 中的库,这极大地扩展了 Julia 语言的使用范围。

VGG技术

2014年,牛津大学提出了另一种深度卷积网络VGG-Net,它相比于AlexNet有更小的卷积核和更深的层级。AlexNet前面几层用了11×11和5×5的卷积核以在图像上获取更大的感受野,而VGG采用更小的卷积核与更深的网络提升参数效率。VGG-Net 的泛化性能较好,常用于图像特征的抽取目标检测候选框生成等。VGG最大的问题就在于参数数量,VGG-19基本上是参数量最多的卷积网络架构。VGG-Net的参数主要出现在后面两个全连接层,每一层都有4096个神经元,可想而至这之间的参数会有多么庞大。

自注意力技术

自注意力(Self-attention),有时也称为内部注意力,它是一种涉及单序列不同位置的注意力机制,并能计算序列的表征。自注意力在多种任务中都有非常成功的应用,例如阅读理解、摘要概括、文字蕴含和语句表征等。自注意力这种在序列内部执行 Attention 的方法可以视为搜索序列内部的隐藏关系,这种内部关系对于翻译以及序列任务的性能非常重要。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

词嵌入技术

词嵌入是自然语言处理(NLP)中语言模型与表征学习技术的统称。概念上而言,它是指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

文本分类技术

该技术可被用于理解、组织和分类结构化或非结构化文本文档。文本挖掘所使用的模型有词袋(BOW)模型、语言模型(ngram)和主题模型。隐马尔可夫模型通常用于词性标注(POS)。其涵盖的主要任务有句法分析、情绪分析和垃圾信息检测。

人脸识别技术

广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。 人脸识别是一项热门的计算机技术研究领域,它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

SSD技术

一种计算机视觉模型。论文发表于 2015 年(Wei Liu et al.)

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

奇异值分解技术

类似于特征分解将矩阵分解成特征向量和特征值,奇异值分解(singular value decomposition, SVD)将矩阵分解为奇异向量(singular vector)和奇异值(singular value)。通过分解矩阵,我们可以发现矩阵表示成数组元素时不明显的函数性质。而相比较特征分解,奇异值分解有着更为广泛的应用,这是因为每个实数矩阵都有一个奇异值分解,但未必都有特征分解。例如,非方阵型矩阵没有特征分解,这时只能使用奇异值分解。

元学习技术

元学习是机器学习的一个子领域,是将自动学习算法应用于机器学习实验的元数据上。现在的 AI 系统可以通过大量时间和经验从头学习一项复杂技能。但是,我们如果想使智能体掌握多种技能、适应多种环境,则不应该从头开始在每一个环境中训练每一项技能,而是需要智能体通过对以往经验的再利用来学习如何学习多项新任务,因此我们不应该独立地训练每一个新任务。这种学习如何学习的方法,又叫元学习(meta-learning),是通往可持续学习多项新任务的多面智能体的必经之路。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

YOLO技术

YOLO 模型最早是由 Joseph Redmon 等人在 2015 年发布的,并在随后的两篇论文中进行了修订。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

随机森林技术

在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Tin Kam Ho所提出的随机决策森林(random decision forests)而来的。这个方法则是结合Breimans的"Bootstrap aggregating"想法和Ho的"random subspace method" 以建造决策树的集合。

高斯过程技术

决策树学习技术

决策树/决策规则学习是一种决策支持工具,使用了树状图来模拟决策和对应结果。它的现实应用包括业务管理、客户关系管理和欺诈检测。最流行的决策树算法包括 ID3、CHAID、CART、QUEST 和 C4.5。

梯度下降技术

梯度下降是用于查找函数最小值的一阶迭代优化算法。 要使用梯度下降找到函数的局部最小值,可以采用与当前点的函数梯度(或近似梯度)的负值成比例的步骤。 如果采取的步骤与梯度的正值成比例,则接近该函数的局部最大值,被称为梯度上升。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

朴素贝叶斯技术

朴素贝叶斯是一种构建分类器的简单方法。该分类器模型会给问题实例分配用特征值表示的类标签,类标签取自有限集合。它不是训练这种分类器的单一算法,而是一系列基于相同原理的算法:所有朴素贝叶斯分类器都假定样本每个特征与其他特征都不相关。举个例子,如果一种水果其具有红,圆,直径大概3英寸等特征,该水果可以被判定为是苹果。尽管这些特征相互依赖或者有些特征由其他特征决定,然而朴素贝叶斯分类器认为这些属性在判定该水果是否为苹果的概率分布上独立的。

置信区间技术

在统计学中,一个概率样本的置信区间(Confidence interval),是对这个样本的某个总体参数的区间估计(Interval Estimation)。置信区间展现的是,这个总体参数的真实值有一定概率落在与该测量结果有关的某对应区间。置信区间给出的是,声称总体参数的真实值在测量值的区间所具有的可信程度,即前面所要求的“一定概率”。这个概率被称为置信水平。举例来说,如果在一次大选中某人的支持率为55%,而置信水平0.95上的置信区间是(50%, 60%),那么他的真实支持率落在50%和60%之区间的机率为95%,因此他的真实支持率不足50%的可能性小于2.5%(假设分布是对称的)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

OpenCV技术

OpenCV的全称是Open Source Computer Vision Library,是一个跨平台的计算机视觉库。OpenCV是由英特尔公司发起并参与开发,以BSD许可证授权发行,可以在商业和研究领域中免费使用。OpenCV可用于开发实时的图像处理、计算机视觉以及模式识别程序。

蒙特卡罗方法技术

蒙特卡罗方法,也称统计模拟方法,是1940年代中期由于科学技术的发展和电子计算机的发明,而提出的一种以概率统计理论为指导的数值计算方法。是指使用随机数来解决很多计算问题的方法。

贝叶斯线性回归技术

在统计学中,贝叶斯线性回归是一种线性回归方法,其中统计分析是在贝叶斯推断下进行的。 当回归模型具有正态分布的误差时,并且如果假设特定形式的先验分布,则可以获得模型参数的后验概率分布的显式结果。

迁移学习技术

迁移学习是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。迁移学习是通过从已学习的相关任务中转移知识来改进学习的新任务,虽然大多数机器学习算法都是为了解决单个任务而设计的,但是促进迁移学习的算法的开发是机器学习社区持续关注的话题。 迁移学习对人类来说很常见,例如,我们可能会发现学习识别苹果可能有助于识别梨,或者学习弹奏电子琴可能有助于学习钢琴。

图论技术

图论是以“图”为研究对象的一个数学分支,是组合数学和离散数学的重要组成部分。图是用来对对象之间的成对关系建模的数学结构,由“顶点”(又称“节点”或“点”)以及连接这些顶点的“边”(又称“弧”或“线”)组成。值得注意的是,图的顶点集合不能为空,但边的集合可以为空。图可能是无向的,这意味着图中的边在连接顶点时无需区分方向。否则,称图是有向的。

条件随机场技术

条件随机场(conditional random field,简称 CRF),是一种鉴别式机率模型,是随机场的一种,常用于标注或分析序列资料,如自然语言文字或是生物序列。 如同马尔可夫随机场,条件随机场为无向性之图模型,图中的顶点代表随机变量,顶点间的连线代表随机变量间的相依关系,在条件随机场当中,随机变量 Y 的分布为条件机率,给定的观察值则为随机变量 X。原则上,条件随机场的图模型布局是可以任意给定的,一般常用的布局是链接式的架构,链接式架构不论在训练(training)、推论(inference)、或是解码(decoding)上,都存在有效率的算法可供演算。 条件随机场跟隐马尔可夫模型常被一起提及,条件随机场对于输入和输出的机率分布,没有如隐马尔可夫模型那般强烈的假设存在。 线性链条件随机场应用于标注问题是由Lafferty等人与2001年提出的。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

最优控制技术

最优控制是指在给定的约束条件下,寻求一个控制,使给定的系统性能指标达到极大值(或极小值)。它反映了系统有序结构向更高水平发展的必然要求。它属于最优化的范畴,与最优化有着共同的性质和理论基础。对于给定初始状态的系统,如果控制因素是时间的函数,没有系统状态反馈,称为开环最优控制,如果控制信号为系统状态及系统参数或其环境的函数,称为自适应控制。

图神经网络技术

图网络即可以在社交网络或其它基于图形数据上运行的一般深度学习架构,它是一种基于图结构的广义神经网络。图网络一般是将底层图形作为计算图,并通过在整张图上传递、转换和聚合节点特征信息,从而学习神经网络基元以生成单节点嵌入向量。生成的节点嵌入向量可作为任何可微预测层的输入,并用于节点分类或预测节点之间的连接,完整的模型可以通过端到端的方式训练。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

线性代数技术

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

语义分割技术

语义分割,简单来说就是给定一张图片,对图片中的每一个像素点进行分类。图像语义分割是AI领域中一个重要的分支,是机器视觉技术中关于图像理解的重要一环。

特征选择技术

在机器学习和统计学中,特征选择(英语:feature selection)也被称为变量选择、属性选择或变量子集选择。 它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

多任务学习技术

长短期记忆网络技术

长短期记忆(Long Short-Term Memory) 是具有长期记忆能力的一种时间递归神经网络(Recurrent Neural Network)。 其网络结构含有一个或多个具有可遗忘和记忆功能的单元组成。它在1997年被提出用于解决传统RNN(Recurrent Neural Network) 的随时间反向传播中权重消失的问题(vanishing gradient problem over backpropagation-through-time),重要组成部分包括Forget Gate, Input Gate, 和 Output Gate, 分别负责决定当前输入是否被采纳,是否被长期记忆以及决定在记忆中的输入是否在当前被输出。Gated Recurrent Unit 是 LSTM 众多版本中典型的一个。因为它具有记忆性的功能,LSTM经常被用在具有时间序列特性的数据和场景中。

图像分类技术

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

冒泡排序技术

冒泡排序(英语:Bubble Sort)是一种简单的排序算法。它重复地走访过要排序的数列,一次比较两个元素,如果他们的顺序错误就把他们交换过来。走访数列的工作是重复地进行直到没有再需要交换,也就是说该数列已经排序完成。这个算法的名字由来是因为越小的元素会经由交换慢慢“浮”到数列的顶端。

CapsNet技术

Hinton 等人实现了一个简单的 CapsNet 架构,该架构由两个卷积层和一个全连接层组成,其中第一个为一般的卷积层,第二个卷积相当于为 Capsule 层做准备,并且该层的输出为向量,所以它的维度要比一般的卷积层再高一个维度。最后就是通过向量的输入与 Routing 过程等构建出 10 个 v_j 向量,每一个向量的长度都直接表示某个类别的概率。

图网技术

ImageNet 是一个计算机视觉系统识别项目, 是目前世界上图像识别最大的数据库。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

Jupyter技术

Jupyter Notebook(此前被称为 IPython notebook)是一个交互式笔记本,支持运行 40 多种编程语言。 Jupyter Notebook 的本质是一个 Web 应用程序,便于创建和共享文学化程序文档,支持实时代码,数学方程,可视化和 markdown。 用途包括:数据清理和转换,数值模拟,统计建模,机器学习等等 。

马尔可夫链技术

马尔可夫链,又称离散时间马尔可夫链,因俄国数学家安德烈·马尔可夫得名,为状态空间中经过从一个状态到另一个状态的转换的随机过程。该过程要求具备“无记忆”的性质:下一状态的概率分布只能由当前状态决定,在时间序列中它前面的事件均与之无关。这种特定类型的“无记忆性”称作马尔可夫性质。

统计学习理论技术

统计学习理论是统计学和功能分析领域的机器学习框架。统计学习理论处理基于数据建立预测函数的问题,且已经在算机视觉,语音识别,生物信息学等领域得到了成功应用。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

暂无评论
暂无评论~