2016年「Rework深度学习」会议概览(附视频)

2016年1月,Rework深度学习会议在旧金山举办,会议既有杰出的深度学习研究人员的出席,也看到不少优秀的创业公司。本文系出席这次会议的 Lisha Li的会议概述。文章主要分三个部分,首先介绍了文章整体思路,然后分别从研究和公司两个角度介绍会议内容。

Part 1:总体思路

上周我参加了「Rework深度学习」会议,为期两天的会议云集了多名深度学习顶尖研究者和深度学习公司。我按照先后顺序做了总结笔记,笔记分「研究」和「公司」两部分。「研究」类笔记包含与吴恩达的Q&A。

研究类的谈话对业内最新成果作出了一系列精彩总结。当然,如果你经常阅读相关文献,会对这些话题很熟悉。如果不是,我也不便给你特定的例子,因为它们都很值得一读。

毫无疑问,人们对这一领域研究应用非常兴奋。个人认为,参加此次会议的公司大致可分为以下几类:大型公司(Pinterest, Twitter, eBay, Flickr)利用深度学习来提高竞争力。除了其他各种已经得到运用的统计/机器学习工具,深度学习也成为工具包里的又一利器,不过,它尤善于完成必须规模化处理海量可视化数据和自然语言处理任务。在规模小一些公司中,一些从事医疗运用的公司似乎既有很棒的商业模式也有易于处理的问题(比如,下面会提到的从事超声波诊断的BayLabs公司)。这些公司主要利用了计算机视觉在分类任务上的进展,技术进展使诊断更加效率,更易获取。这似乎确有说服力,只要(就某个需要解决的问题)拥有标记好的数据组,比如就超声波诊断来说,与医院和研究机构合作似乎就能搜集到这些数据。而且考虑到责任问题,这只能作为辅助手段而不能真正替代医生。还有两家公司致力于卫星图像的分析。其中一家能够评估所获数据的价值(计算世界石油储量就是很有代表性的例子,又如中国建设活动可以作为其经济发展的等价参考)。最后,会有更多面对垂直领域的消费者,垂直领域商家试图用深度学习提升互动个性化(比如,购物推荐,管理自己相册,等等)。

用深度学习创造一个成功的商业,就是找到一个满足于目前技术可以实现的准确度的垂直领域,尽管也将为此投入大量金钱。简言之,它给出的结果是否足够精确?是否有人愿意为现有精确度买单?虽然很多公司看起来前景广阔,但是他们是否可以算作成功仍不明朗。相较而言,正如下面将提到的许多公司所做的那样,搭建一个实现深度学习的平台则更为简单,尤其是考虑到许多有足够财力的公司已经组建了自己的深度学习团队(如上)。

这些谈话笔记是我实时记录的,请原谅它们有点儿未加润色。

Part 2: 研究

  • Ilya Sutskever/OpenAI 

演讲主题:深度学习的理论和应用(Deep Learning Theory and Applications)

技术进展:深度神经网络非常富有表现力而且能为我们感兴趣的十分困难的问题提供解决方案。它们可从实际数据进行训练(也就是说,我们能找到好的权重)。通过类比生物神经元,演讲者提出了一个温和论点,说服我们自己相信为什么神经网络应该可以解决类似生物神经网络解决的问题(生物神经元放电慢,每秒次数少。)会议也展示了一项名为「神经GPU」的新研究,通过研究DNN如何学习算法,解决更好泛化DNN的问题。研究结果:能用最多20比特的二进制加法进行训练,并泛化至2000比特,乘法运算同样如此。也可以高度并行运算。

主要收获:深度神经网络找到可训练性和表现力间的平衡点。

  • 与吴恩达的围炉谈话

主要内容:我们必须联合起来向大众普及人工智能能够做什么以及不能做什么,这样才能消除大众对人工智能的恐惧情绪。吴恩达对人工智能及其开源的(面向普通人的)传播渠道持乐观态度。政府应当在其中扮演更加重要的角色,不过,不是采取限制的解决方案,而应当致力于设立该领域的安全标准。

深度总结(诠释):吴恩达对无人驾驶持乐观态度:汽车制造商应当享有更多自主权(对此仍有争议)。从公交线路开始(这样更容易保证安全性),循序渐进。他对政府在无人驾驶这一领域的角色充满期待。支持帮助无人驾驶系统的建设。

如何看待 可行性,私人和公共的攻击?

区别来(come)和停(stop)(在这一点上,视觉无法做出区分)。因此需加改善。但是,汽车没有盲区。因此,自动驾驶有好也有坏(调整我们的预期,比如,预期应当有所不同)。类比:火车比马车更危险。社会必须了解在火车面前不要做什么。自动驾驶和汽车也是如此。希望人们能够辨识出无人驾驶汽车并做好应对行为(因此,物理上可以让无人驾驶汽车区别于其他汽车)。不需要很漂亮但一定要容易辨认。车辆眼中的世界与人类有所不同。

预测人工智能引发的事故。相关公司如何应对公关危机?

我义无反顾的对人工智能持乐观态度,并坦诚它的能力及局限性。对于某些粗心大意发布了一些尚未成熟的产品公司,我希望他们能够开诚布公地向监管部门及公众作出解释。

您支持及反对怎样的立法?

应保证无人驾驶汽车的安全性,但若为此在车内安置人力就没意思了。解决方案应当是标准的而非特殊的(比如在自动车内安置人力)。

能够信任企业关于安全人工智能的承诺吗?

相关决策者正是房间里的诸位。对科技持乐观态度。

Musk担心人工智能,对人工智能的恐惧源于何处?

人工智能在很多层面来看都已经非常「聪明」了,我们也从以往的问题中积累了越来越多的数据。人工智能和人类能做的尚存鸿沟,因此,我们并没有合适定制的数据用于监督学习,因此人工智能所创造的价值来自监督学习。指数外推(exponentially extrapolate)诱人,但是, 需被格式化的数据量并未呈指数增长,所以还远没到担心人工智能的时候。

未来五年人工智能道德问题会是什么?

人工智能创造了巨大的价值,比任何公司(谷歌、百度、facebook)都要大。比如说,Iphone彻底颠覆了科技。相反,我对它的负面问题担心得比较少。让这个生态系统良性增长,使每个人都能从中获益。总之,鼓励增长。

人工智能竞赛?你不这么看吗?

当然,我们都在争夺人才。我们正处于发展一个生态系统的初期,所以每一个人都需要为此努力工作。公司的工作重心正从软件和算法转向数据。开放已发表的论文资源。开源软件的作用。

怎么说服企业加入开源项目?

依靠好的公关加专业的人才。是的,我们需要赚钱,但是,这必须与硅谷的互助精神相结合才行。比如Coursera。如果我不是真正的相信它的价值,它现在也不会成为一个这么激动人心的的项目。

知识产权法规如何改变才能有助于这一愿景的实现?

专利权体系已经崩坏。有价值的知识产权是数据——很短的时间就可以捕捉到价值,专利体系因此崩坏。除此之外,关于数据的社会契约是什么呢?复杂的对话。

人工智能对就业有怎样的影响?企业应当如何看待,政府在其中扮演怎样的角色?

人工智能会让许多人(比如卡车司机)失业。希望加强对人工智能的科普:越多的人了解人工智能,我们就越容易作出最优的决定。

  • Christopher Manning / 斯坦福大学计算机科学及语言学教授

Christopher D Manning, Professor of Computer Science and Linguistics, Stanford University on Wednesday, May 14, 2014, at Stanford University. ( Photo by Norbert von der Groeben )

Christopher D Manning, Professor of Computer Science and Linguistics, Stanford University on Wednesday, May 14, 2014, at Stanford University. ( Photo by Norbert von der Groeben )[/caption]

演讲主题:深度学习,语言的精确含义(Deep Learning the Precise Meaning of Language)

技术进展:语音元素同时出现概率比能编码意义成分,巨大收获超过了Categorical CRF,SVD,S&W(其他流行的方法)。仍然存在语意合成性(compositionality)的难题。比如,如从见微知著?他们已经充分利用了迁移学习自适性并整体建模(利用深度学习),改善了翻译TED演讲效果,提高了25%。现在,正利用基于依存语法分析的神经网络来开发普遍依赖性(普遍跨语言)模型表示。

主要收获:语言是我们跨越时空传递知识的工具。如果我们想要开始解锁NL-理解,我们必须让计算机从海量的数据资源中学习。

  • Andrej Karpathy/斯坦福博士生

演讲主题:可视化和理解递归神经网络(Visualizing and Understanding Recurrent Networks)

递归神经网络(RNNs)具有灵活性。输入和输出可以是序列,而不限于固定大小。这一点非常适合文本情感分类(sentiment classification)以及视频处理。

极大的修辞繁荣:「生成、采样或者使得输出富有幻觉效果」。

应用举例:通过递归神经网络输入莎士比亚的作品来产生新的诗歌;生成几乎符合规定的代数几何的Latex文件;产生C语言代码。它们都很擅长捕捉数据的统计学模式。

而所有的这些只需要112行Python代码!

事物如何按比例变化。递归神经网络中存在可解释的最小单元。比如,有的可以进行引用检测或者检测新的行。递归神经网络和卷积神经网络(CNN)的结合也投入了应用,它能够很好地进行图像描述(当然也有有趣的失败案例)。另一个应用是用文本进行图像搜索。测试图像,然后将之输入CNN,而不是最后的分类器,我们重新将代表(rep)输入RNN,给出描述中第一个单词的概率。使用来自 Amazon Mechanical Turk的数据。失败案例。延伸处理侦测和描述联合任务的模型。完全卷积,完全可微积分。只需要输入一小段文字进行查询,就可以得到所查询的图像。

  • Ian Goodfellow/谷歌研究员

演讲主题:最优化神经网络的指南 (Tutorial on Optimization for Deep Networks)

应用及原理:在分析神经网络每一层贡献时,一个很好的比喻是把神经网络看做一系列矩阵乘法(每层一次矩阵相乘)。当然,随着层数的增加,很难确定某一层的作用。结果,在应用中我们发现误差曲面的最小误差层非常薄,但是周围波动梯度很大,这会让系统容易溢出。

异议:对于如何找到最小值并没有数学上的保证(这当然不是凸曲面)。然而,在应用实例中,随着时间推移的绘图误差会给我们一条令人惊讶的平滑而且单调的曲线。

理论进展:批量正态化(Batch Normalization)——利用平均值和方差进行正态化,这样的话你的梯度下降可以很好地适应每一层对结果影响之间的差异。在实际操作中发现,这一发现让训练更加容易和迅速。

  • Roland Memisevic/蒙特利尔大学助教

 

演讲主题:深度学习,作为一种计算范式(Deep Learning as a Compute Paradigm)

从中央处理器(CPUs)到图形处理器(GPUs)的转变使得我们利用NN中可行的并行水平,也使得目前成果成为可能。我们该怎样前进并且在硬件层面上取得更高的效率呢?答案是深度学习范式。追求细节的话,它可以更加准确但同时需要更多数据;反之,它不那么精确也也不需要那么多数据。经典范式:精确、快速但是对编程繁琐乏味。泛化来讲则比较缓慢但易于编程。总的来说,深度学习更偏向于准确,而不是专门化。人类则更加偏向泛化的特征。使用极少数据,一般性解决问题。思考具身认知(embodied cognitioin)。人们善于用本来是为解决其他问题预先建立的结构处理新的垂直领域问题。

主要收获:我们应该对硬件建模,充分利用神经网络中的并行计算。也check out一下 Twenty Billion Neurons(新创业公司)。

  • 深度学习应用对未来经济发展影响的座谈会

担忧恶意的人工智能,炒作还是现实?答案:炒作,一个好的新闻故事。

深度学习拉开了贫富差距,它的进一步发展会恶化这一差距吗?答案:深度学习在本质上是开源的,因此,较之以往,公司更容易获取。这一趋势让专家们能够专注于他们的研究而不需要重新发明工具。这样他们可以做的更多。总结:附和吴恩达的观点:我们需要规则而非特定的解决方案。政府不是专家,所以他们应该负责给出纲领,而非开出解决方案。

  • Oriol Vinyals/谷歌DeepMind

演讲主题:谷歌大脑的端对端学习

技术进步:使用递归神经网络的语言建模。感谢长短时记忆模型、Theano和Torch,我们现在实现起来比以往任何时候都要简单。端对端学习使我们能够尝试许多新东西,在给图片添加标注、语音、语法分析、视频分化和算法方面可以表现的更好。成功的关键在于相信它在参数最优化方面会运转的很好。

主要收获:序列变得最为重要。有了足够的数据,它们可以生成非常复杂的函数。注意力模型让递归模型变得更好。

  • 演讲者/公司:Aditya Khosla/MIT博士生

Aditya Khosla

演讲主题:通过可视化媒介理解人类行为(Understanding human behaviour through visual media)

我们能否对人类喜欢或者容易记住哪类照片进行预测?能否从照片中预测出性格?能否从图片中预测出政治倾向?能否预测出某人的精神状态?

技术:开发iTracker卷积神经网络来理解用户在看什么。2厘米内的误差,期待它更好。Demo查看地址http://gazefollow.csail.mit.edu

应用:可以很好的应用于自闭症和精神分裂症的诊断。毫无疑问的,也可以用在广告上。

  • Pieter Abbeel/伯克利EECS助理教授

演讲主题:用于机器人的深度增强学习

什么是机器人的标准方法?

感知(加速器),手工设计的状态估计,手工声称的控制策略等级,手工调节的10is自由参数,马达命令。用DNN取代3个中间步骤。这反映了图像识别和语音识别的革命。

但并不一样,因为机器人不是一个监督学习问题。机器人有反馈回路。稀疏报酬函数。

3项挑战:稳定性。像汽车一样脱离路线,然后我们就会与没有表示的数据离开很远。稀松监督。

深度增强学习运动。给它奖励,触地越有力,就前进的更多。

前沿/未来。记忆,评估,temporal hierarchy/目标设定。分享与迁移学习

  • Lise Getoor/加州大学圣克鲁兹学校

可扩展的图收集推理。

设置:结构化数据,「大数据不是扁平的」多峰的(Multimodal)。漂亮提取结构化数据,扁平成表数据,而且没有充分利用结构。

需求:用于图的机器学习。图输入(不仅是序列)。

挑战:部件相互间与自身内在有依赖性。

目标:图输入导致图输出。

核心观点:预测/输出依靠。挑战,真正大以及复杂(表现为节点数目,连接数目,绕圈的连接方式)的图数据结构。

工具:Probabilistic Soft Logic(PSL)。一种说明的概率编程语言,可用于共同的推理问题丰富的结构图数据。可以解决大多数问题。

总结:需要处理结构化数据的技术。处理这种问题算法的新机遇。他们用来处理这个的工具是PSL.getoor@usc.edu

Part 3:公司
  • 演讲人/公司名称:Diogo Moitinho de Almeida/Enlitic

diogo moitinho de almeida enlitic

演讲主题:用于深度学习的工具很难操纵,我们需要一起合作使其更加灵活。例如,在神经网络增加几层很容易,这要得益于工具。关于其他事情呢?难点:参数的costs,不可微分更新的节点。一般来说,我们需要开发通用「技巧」来实施深度学习。

技术进步:研究一个库让事物更加可组合化,让动态架构成为可能。这对于一些医疗诊断任务非常有用。

经验:深度学习非常好,工具限制了它们的发展,让我们共同解决这个问题。

  • Clement Farabet/推特

演讲主题:Twitter的深度学习

商业方面的应用:时间轴排名/个性化,内容发现和建议,Periscope排名/个性化,搜索,索引和检索,广告目标确定和点击预测。平台安全。这些都需要实时运行,所以给这些任务增加了难度。

挑战:所有事情都不是一般性的,迁移学习非常困难。需要一个可靠的数据收集的回路, 规模上快速。使用从另一数据组训练来的东西也不是那么可适用(ImageNet); 比如twitter,鲜有自然图片。

技术进步:开发三种软件包来提出快速模型探测的主题,如何处理分布式结构数据和分布式训练。它们分别是troch-autograd,torch-datasets和torch-distlearn。

  • Clarifai Matthew Zeiler/Clairifai

matthew zeiler

演讲主题:属于每个人的深度学习。想要理解图片和视频。他们的技术能够驱动许多不同的垂直领域:Vimeo(视频网站)、皮克斯、苹果手机的医疗装置给耳朵,辞职,和嘴的内部拍照,等等。因此既有企业也有消费者。

技术应用案例:New Forevery App。用户整理图片,标注位置、时间和其他内容。不需要手工添加标签。实时预测新标签,建立内容分类(冒险、避暑和休闲)。

经验:深度学习使我们达到了个性化的新水平。

  •  Charles Cadieu/Bay Labs CEO、MI博士后

Charles Cadieu

演讲主题:提高医疗图像的质量、价值和使用权限(Increasing Quality, Value and Access to Medical Imaging)

商业应用:让更多的人和机构能够享受到阅读医疗影像的价值和质量。例如,在超声图像方面。这方面有着非常广泛的应用场景,在诊断能力方面,这完全可以与其他工具相媲美,甚至比它们更好。这种方法的价格实惠(相对来说),基于当前的平板电脑和iphone也会拥有很强的便携性。可以将深度学习应用在风湿性心脏病方面。

主要收获:将深度学习转向去理解我们内部的世界,然后使用更加先进的应用去实现它。

  • Andrew Zhai/Pinterest

zhai

演讲主题:Pinterest的视觉搜索

技术进步:Flashlight:帮助Pinterest识别出图片中的物体,并推荐相似的物体。技术挑战:用少于250毫秒的时间在几十亿图片中进行检索。深度学习用在图像表示和检索上。使用卷积神经的中间层并把它们的嵌入当成对相似度的测量。规模化是另外一个挑战。解决方案:将数据集划分成碎片,然后在一个分布式基础结构中使用KNN(临近算法)。

有待进步:根据图形中的物体位置进行默认截图,而不是根据预先规定的位置。

  • Pierre Garrigues/Flickr

pierre

演讲主题:Deep Learning with Flickr Tags

商业应用:用户标签预测。图片搜索和发现。图片审美模式(为了推荐,判定图片有多好)。目前技术水平是ImageNet,然而,Flickr没有文字标签(比如,用大海给人的感受来描述一张大海的图片)。这提供了一组丰富又不同的数据。

挑战:模式探索以及需要快速训练模型。一些解决方案:Spark on yarn.Caffe on Spark

  • Neil Glackin/Intelligent Voice

Neil Glackin

演讲主题:Recurrent Lateral Spiking Networks for Speech Enhancement

技术进步:嘈杂环境(外部)声音识别 效果不佳

生物学灵感:人类耳蜗是一个快速的傅立叶变换,将声音数字化为脉冲刺激。

脉冲神经元: 横向递归,用两个参数将对称关联参数化。真擅于清除声音中的噪音。

  • Matthias Dantone/ Fashwell

演讲主题:A Deep Learning Pipeline to Convert Fashion Images into Valuable Fashion Assets

用深度学习进行图片处理。让instagram上的物件商品化。产品利用instagram的数据组向用户推荐大家甚至没有表达出来的需求之物。需要识别图片中的时髦客体,也必须给用户推荐正确的东西,同时提供这些商品在合作网店上的直接链接。

  • Steven Brumby/Co-Founder & CTO, Descartes Labs

Steven Brumby

演讲主题:从云端看地球:机器学习如何改变着我们看待世界的方式(Seeing the Earth from the Cloud: How Machine Learning is Changing the Way we See the World.)

利用目前DL的代码有效性分析通过农业数据卫星图片获取的海量数据。应用实例:商品交易者会对更精细的看法感兴趣:比如种植食物的种类、数量以及进出口活动。在深度学习的帮助下分析海量数组,Descartes Labs可以提供这类洞见。

  • Eli David,CTO, Deep Instinct @deepinstinctsec

深度学习用于安全:分析移动应用,找到/识别恶意信息。较之传统方法,显示出非常有力的分析结果。

关键内容:Deep Instinct使用深度学习识别网络攻击并在真正危险出现之前,加以实时封锁,为解决网络安全问题提供了新方法。

  • Maithili/Sightline Innovation Founder CEO。

深度学习用来识别自制部件缺陷(比如,汽车部件)。当部件生产出来后,特殊光学照相机会拍摄部件图片,然后深度学习就可以实行质量控制。相同的技术可运用到医疗诊断中。加拿大最大的医学学习创业公司。

  • Richard Socher/Metamind CTO,CEO和联合创始人

richard-socher

主题:From Classification to Question Answering for Language and Vision

如果处理正确,标准图片和文本分类能非常准确。应用:颅内出血:将很多CT扫描进行归类,优先情况糟糕的出血案例。

未来:NLP/AI任务能简化成问答。但不是所有问题都能和分类一样简单。比如,机器翻译,情绪分析。

目标:QA的联合模型(joint model)。问题:对于自然语言处理来说,还不存在这样一种单一模型结构,针对跨任务,持续生成先进结果。问题二:联合多任务学习很难。

解决方案:Metamind研发的Dynamic Memory Networks。使用RNN里的GRU单元。包括重置决定是否应该在意过去所知的控制门(gate)。情景记忆模块。如果与问题(术语是相似度函数)相关,控制门被激活。来自神经科学的灵感:情景记忆是自传式事件的记忆(事件,地点等等)。在传递性推理过程中, 情景式记忆的位置(海马体)处于活跃状态中。

结果:世界上最精确的视觉问答模型。例子:播放的是什么体育节目:网球。什么食物,健康吗,卡路里...等等,因此不是严格分类。

  • Kaheer Suleman/ CTO and CO-Founder,Maluuba

Kaheer Suleman

对话。自然语言理解。加入ConvNet 和 LSTM。超越领域:机器阅读理解。输入多选答案表格,机器是否选择了正确的一个。机器理解算法正确率78%(最好)。人类短故事数据组以及多项答案。

研究学习更多通用任务的方法。使用深度学习网络,方差减少。

对话系统的未来:领域独立(健康,游戏,推特,等等)通识推理。没有好的数据组来学习通识。

幽默感,多峰的。

  • Arno Candel/Chief Architect H20.ai

Arno Candel

产品:H20软件,最佳Java 代码。适用于各处(手提/服务器/集群)。分布式计算和Spark,开源。Client APIs,R,Python,Java,Scala,Flow

应用:深度学习在粒子物理领域成绩斐然。从背景信号中识别希格斯粒子。打败所有其他模型。关键内容:与许多不同语言匹配,真实有效的Java代码,将深度学习引入许多垂直领域的好办法

关键内容:与许多不同语言匹配,真实有效的Java代码,将深度学习引入许多垂直领域的好办法。

  • Nigel Duffy/ CTO of AI, Sentient Technologies

深度学习会改变在线购物体验。比如,买鞋很不容易。使用深度学习来改善商品推荐/适配过程。虚拟发现,我们无法确切知道我们想要什么。基于对话,仅凭图片,有趣,生产性以及在各种设备上工作。20个问题就搞定你想买什么。

方法:用CNN捕捉产品语义。使用amazon mechanical turk标记数据组。他们自己的在 shoes.com

关键内容:通过对话让在线购物变得有趣。深度学习使之成为可能。

  • Hassan Sawaf/Ebay

信息提取—产品分类——特征提起——虚拟客体识别——垃圾邮件识别——视觉搜索

  • Davide Morelli/CTO Biobeats

Davide Morelli

测量心率

收集全球心血管数据( 从手机上)。让音乐与心跳同步。搭建深度学习让数据有意义。用户价值:获取仪表盘。显示洞见和信息。汇集所有apps数据。压力,疲劳,恢复能力,睡眠数据。数字vs.插件

搭建几个应用。与你的节奏同步(你一天的soundtrack)。让它变得有趣,他们也能获取数据。

此时此地:冥想应用。呼吸练习。MEasures HRV response.教用户学会呼吸。干预引擎:你现在是不是该呼吸了。直接的生物反馈训练神经网络分析数据。

人类活动识别模块。

概念性挑战。我们身体的各种反应方式。文本至上,很难获取基准事实。潜在变量,生理的,心理的,需要个性化基线。

  • Alex Jaimes CTO at AICure

我们都离不开医疗,测试,获得NIH自助。A轮。如今正在扩张和增加收入。

依从性(adherence)重要的地方。临床测试。人口健康(高风险,高成本)医疗 GDP的18%。临床测试百分比,一年510亿。

技术:可规模化,交互性,花费低,任何语言,自适性和私人化,敏于语言和计算机读写水平。实时干预...大数据洞见。

连续数据点vs不连续的血液测试。无依从性,成本高。

目标:智能医疗助手

  • James Crawford,Orbital Insight创始人

如何拍下百万卫星图片,了解地球。商业太空。大型和小型卫星图片增长。到2020年,卫星图像会增长50倍。我们想要的不是像素而是洞见。他们的产品就是将卫星图片转化为洞见。 应用实例:美国零售:去某些地方(购物集中地)的时间模式分析。周三是去科尔士百货公司的高峰时段。及时获取高峰(正在发生事情的时间序列。)分类像素。

世界石油库存:浮动的井盖(起伏与油舱石油储量有关……确实更加安全。但是对图片分析来说,很好。用专利算法找到阴影和库存。稳定油价。这些油舱分属许多不同国家,因此我们也不知道石油总量。

贫穷分布图:计算汽车数量,这比调研数据要好。世界银行的付费项目。多个垂直领域的应用。 总结:公司为那些想要获取先进,无偏见社会经济发展趋势知识的决策者们提供服务。通过计算机视觉和云计算将百万图片转化为可进行测量观察的理解世界的宏观图景。

  • Luca Rigazio

自主采取行动。有了机器人,我们似乎少了些代理。有巨大的机遇,也有很难定性定量的风险。历史上的两个成功。HTF。Airliners → 自动驾驶仪。

实例:飞行员关闭自动驾驶仪,让飞机(法国)坠毁。

Human AI = HAI

最后一层怎么走,感觉。 给观众的问题:仅理解或者综合?需要与人类很好合作吗?测量什么,如何测量。

佛罗伦萨派(Florentine)。代理完全从数据中学习。

入门深度学习
暂无评论
暂无评论~