Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Cassie Kozyrkov作者hackernoon选自

关于TensorFlow,你应该了解的9件事

谷歌开发技术推广工程师 Laurence Moroney 在 Google Cloud Next 大会上进行了一段 42 分钟的演讲,主题是「What's New with TensorFlow?」。本文作者 Cassie Kozyrkov 对该演讲进行了总结,概括出关于 TensorFlow 的九件事。机器之心对本文进行了编译介绍,希望对大家有所帮助。

我总结了今年 Google Cloud Next 大会上我最爱的一段演讲——What's New with TensorFlow?(https://www.youtube.com/watch?v=MR7w8ARAS2Y)

然后我想了想,简直找不出理由不向你们安利我对此演讲的超短总结。(除非你不看视频,不然你绝对应该看看这个演讲,演讲者 Laurence Moroney 很出色。)

#1:TensorFlow 是一个强大的机器学习框架

TensorFlow 是一个机器学习框架,如果你有大量的数据,或者你在追求人工智能最先进的技术:深度学习神经网络等,它都会使你如虎添翼。它可不是数据科学界的瑞士军刀,而是工业车床!如果你想做的只是通过 20×2 的电子表格绘制一条回归线,那你可以停止阅读本文了。

但如果你追求的是更大的目标,那就嗨起来吧~TensorFlow 被用于寻找新的行星,协助医生检查糖尿病性视网膜病变来预防患者失明,向当局报告非法砍伐行为来拯救森林。它是 AlphaGo 和 Google Cloud Vision 的基础,也会是属于你的。TensorFlow 是开源的,你可以免费下载并立即开始使用。

  • TensorFlow 下载地址:https://www.tensorflow.org/install/

  • TensorFlow 初始教程:https://www.datacamp.com/community/tutorials/tensorflow-tutorial

TensorFlow 的帮助下发现的开普勒-90i 行星使开普勒-90 星系成为我们所知的唯一的另一个八颗行星绕一颗恒星运行的星系。目前还没有发现有超过八颗行星的星系,所以我想这意味着太阳系与开普勒-90 星系并列第一(目前)。

#2:一个神奇操作

TensorFlow Eager 让我高枕无忧。

如果你之前尝试过 TensorFlow,但因为它使你像老学究或外星人(而不是开发者)一样编代码而疯掉,现在抓紧回来啊啊啊啊!!

TensorFlow 的 eager execution 让你像纯 Python 程序员一样进行交互:即时编写和即时逐行调试,而不是在构建那些庞大图表时还得屏住呼吸。我自己也是一个正在恢复正常的「学究」(很可能是外星人),但是自从它出现我就爱上了 TF 的 eager execution。强烈安利!

#3:逐行构建神经网络

Keras + TensorFlow = 更容易的神经网络构建!

Keras 致力于用户友好性和简单的原型设计,这是之前的 TensorFlow 所渴望的。如果你喜欢面向对象的思维,喜欢一次构建一层神经网络,你会喜欢 tf.keras。在下面几行代码中,我们创建了一个序列神经网络(sequential neural network),其具备标准的附属组件,如 dropout。

#4:不仅是 Python

你们抱怨 TensorFlow 只适用于 Python 已经有一段时间了。现在 TensorFlow 不再是 Python 使用者的专利了。现在它可以在很多语言中运行,R、Swift 以及 Java Script 等等。

#5 你可以在浏览器中做任何事

说到 JavaScript,你可以使用 TensorFlow.js 在浏览器中训练和执行模型。到这里尝试一些超酷的案例吧:https://js.tensorflow.org/~

使用 TensorFlow.js 在浏览器中执行实时人体姿态估计。打开你的相机试一下?https://storage.googleapis.com/tfjs-models/demos/posenet/camera.html。

#6: 针对小型设备的精简版

从博物馆买了个旧桌子?烤面包机?TensorFlow Lite 使得在移动设备和物联网设备等多种设备上执行模型成为可能,其推理速度是原始 TensorFlow 的 3 倍还多。现在你可以在树莓派或手机上进行机器学习了。在该演讲中,Laurence 做了一件勇敢的事情,在数千人面前用一个 Android 模拟器实时演示图像分类……并且成功了。

1.6 秒计算时间?是的!香蕉识别率超过 97%?是的!

#7:专用硬件更强劲

如果你已经厌倦了在训练神经网络过程中需要等待 CPU 完成数据处理,那么现在你可以使用专门为 Cloud TPU 设计的硬件,T 即 tensor。就像 TensorFlow……巧合吗?我认为不是!不久前,谷歌在 alpha 版中发布了第三版 TPU。

#8:新的数据工作流得到很大改进

你用 NumPy 做的是什么?如果你想在 TensorFlow 中执行同样的操作,但是却「怒退」(rage-quit),则 tf.data 命名空间可以帮助 TensorFlow 中的输入处理更具表达能力、更高效。tf.data 为你提供与训练同步的快速、灵活且易于使用的数据工作流。

#9:你不需要从零开始

你知道开始机器学习最可怕的是什么吗?编辑器中有一个空白的新页面,并且没有大量的示例代码。有了 TensorFlow Hub,你就可以更高效地执行由来已久的传统,即自己编写别人的代码,并将其称为自己的代码(这也称为专业软件工程)。

TensorFlow Hub 是一个可重复使用的预训练机器学习模型组件 repo,它的封装和使用都非常精简。你可以自己试一下!

  • TensorFlow 官方 YouTube 频道:https://www.youtube.com/channel/UC0rqucBdTuFTjJiefW5t-IQ

  • 博客:https://medium.com/tensorflow

原文链接:https://hackernoon.com/9-things-you-should-know-about-tensorflow-9cf0a05e4995

入门TensorFlow
6
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

阿尔法围棋技术

阿尔法围棋是于2014年开始由英国伦敦Google DeepMind公司开发的人工智能围棋程序。AlphaGo是第一个打败人类职业棋手的计算机程序,也是第一个打败围棋世界冠军的计算机程序,可以说是历史上最强的棋手。 技术上来说,AlphaGo的算法结合了机器学习(machine learning)和树搜索(tree search)技术,并使用了大量的人类、电脑的对弈来进行训练。AlphaGo使用蒙特卡洛树搜索(MCTS:Monte-Carlo Tree Search),以价值网络(value network)和策略网络(policy network)为指导,其中价值网络用于预测游戏的胜利者,策略网络用于选择下一步行动。价值网络和策略网络都是使用深度神经网络技术实现的,神经网络的输入是经过预处理的围棋面板的描述(description of Go board)。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

推荐文章
暂无评论
暂无评论~