机器之心编辑部编译

Yann LeCun、吴恩达等的2019年AI趋势预测

本文介绍了 Yann LeCun、吴恩达、Hilary Mason 和 Rumman Chowdhury 对 2018 AI 领域的总结以及对 2019 年发展趋势的预测。

从左到右依次是:埃森哲 Responsible AI 全球计划负责人 Rumman Chowdhury、Cloudera 机器学习负责人 Hilary Mason、Facebook AI 研究院创始人 Yann LeCun、谷歌大脑联合创始人吴恩达

人工智能是孤注一掷的选择,它要么拯救世界,要么摧毁世界。

近日,VentureBeat 与一些专家进行了对话,包括谷歌大脑联合创始人吴恩达、Cloudera 机器学习负责人 & Fast Forward 实验室创始人 Hilary Mason、Facebook AI 研究院负责人 Yann LeCun 和埃森哲 Responsible AI 全球计划负责人 Rumman Chowdhury。他们讲述了自己心中的 2018 年重要里程碑,以及对 2019 年的展望。

其中一些专家说道,他们很欣慰关于 AI 终结者说法越来越少,更多的人开始理解 AI 能做与不能做的事。但是专家们还强调,该领域的计算机和数据科学家仍然需要在推动人工智能发展的过程中,继续采取负责任的伦理观。

Rumman Chowdhury 博士

Chowdhury 博士是埃森哲应用智能服务部门的董事总经理,也是 Responsible AI 的全球领导者。2017 年,她被 BBC 列入「全球最有影响力的 100 位女性」名单。

Chowdhury 表示,她很高兴看到 2018 年公众对人工智能的能力和局限性的理解有所提高,并发现人们对人工智能威胁的讨论也更加均衡——不再局限于电影《终结者》中机器将统治人类世界的恐惧。「随之而来的是,越来越多的人开始关注隐私和安全问题,以及人工智能在塑造我们以及后代方面所扮演的角色。」

然而,Chowdhury 认为,公众对于 AI 的这些认知还不是最重要的。更重要的是,在 2019 年,她希望看到更多的人利用教育资源来理解 AI 系统,并能够利用自己的智慧质疑 AI 所做的决定。

AI 生态系统中的科技公司和人们开始考虑其工作的伦理影响,这让她感到惊喜。但她希望 AI 社区更进一步,能够「从道德提醒到实际行动。」

「至于伦理和 AI 领域——除了电车难题,我希望大家能够深入研究 AI 将带来的难题——那些还没有明确答案的问题。如何在人工智能物联网监控之间取得『正确』的平衡?这种监控必须安全,但不应该强化现有种族歧视的惩罚性监控状态。我们应该如何调整先进技术的收益再分配,从而不会进一步加大贫富差距?应该将孩子暴露在什么程度的 AI 环境中才会让他们成为『AI 土著』而不被操控或同质化?我们如何用 AI 扩展教育并将其自动化,但仍让孩子的创造力和独立思考能力得到充分发展?」她问道。

2019 年,Chowdhury 预计全球将有更多的政府对技术进行审查和监管。

「全球科技巨头所拥有的 AI 及其力量引发了很多关于如何监管产业和技术的问题。2019 年,我们要开始想办法解决这些问题——当一种技术是多用途工具且结果受特定环境影响时,你如何监管?如何建立监管条例并确保它不会抑制创新或偏袒大公司(可以承担合规成本)而非小公司?我们要监管到什么地步?国际,国家还是地区?」

她还希望看到人工智能在地缘政治事务中继续发挥其作用。

「AI 不只是科技,它还是经济、社会的塑造者。我们在这项技术中反思、扩展和实施我们的价值。我们需要加深对技术及其影响的理解。」要做到这一点,我们对 AI 行业的理解不能再局限于常见观念。

「我希望监管者、技术专家和研究人员意识到,AI 竞赛不仅仅是算力和技术敏锐度,就像冷战不仅仅是核力量一样。我们应该以更公平、公正、平等的方式去重建这个世界,尽管这样的机会很稀有。逝者如斯夫,不舍昼夜。不要浪费时间。」

从消费者的角度来看,她认为 2019 年将会有更多的家庭使用人工智能。很多人会更加习惯使用如 Google Home 和 Amazon Echo 这样的智能语音助手以及其它智能设备。因此,她也很期待本月将于拉斯维加斯举办的国际消费者电子展(Consumer Electronics Show,CES)上是否会有什么有趣的东西出现。通过这个展会,人工智能可能会进一步融入人们的日常生活。

「我想我们可能都在等一位机器人管家的出现。」她说。

吴恩达

吴恩达斯坦福大学计算机科学系教授、谷歌大脑联合创始人、Landing AI 创始人(该公司旨在帮助企业在业务流程中融入 AI)。此外,他还是很多流行的在线机器学习课程的讲师,他还创办了 deeplearning.ai,并写了一本书《Deep Learning Yearning》。2017 年,他从百度离职,后创办了人工智能创业投资机构 AI Fund,他也是自动驾驶汽车公司 Drive.ai 的董事会成员。

吴恩达认为 2019 年有望出现进展或改变的地方是:AI 将应用于技术或软件公司以外。他认为,AI 最大的待开发潜力在软件行业之外,并引用了麦肯锡报告:到 2030 年,它将会创造大约 13 万亿美元的 GDP 增长。

「我认为 2019 年在软件业之外的 AI 应用方面会发生很多故事。在行业中,我们已经帮助谷歌、百度、Facebook、微软等企业做了很多工作,而 Square、Airbnb、Pinterest 这样的公司也开始利用 AI。我认为下一波创造价值的浪潮将出现在制造业公司、农业设备公司或医疗企业,这些企业可能会利用 AI 来开发多项解决方案帮助其发展业务。

和 Chowdhury 一样,吴恩达也对 2018 年人们对 AI 能力的理解感到惊讶。

「我尝试审慎地列举一些我认为对实际应用非常重要的领域。我认为 AI 的实际应用存在很多障碍,而在这些问题的有些方面有很大进展。」

对于 2019 年,吴恩达希望看到 AI/ML 研究中两个特定领域的进展。一个是 AI 能在数据量少的情况下获得较高的准确率,即「few shot learning」。

「我认为深度学习发展的第一波浪潮是拥有海量数据的大公司训练非常大的神经网络。如果你想要构建语音识别系统,在 10 万小时的数据上进行训练。想要训练机器翻译系统的话,就在大量平行语料库的句对上进行训练,从而创造出大量突破性的结果。现在,我看到在小数据集上出现越来越多的成果,即使你只有 1000 张图像,你也可以尝试做出点什么。」

另一个是计算机视觉领域的进展,即「generalized visibility」。一个计算机视觉系统可能在使用斯坦福大学的高端 X 光机拍摄图像时效果很好。很多该领域的先进企业和研究人员已经创造出超过人类放射科医生的系统,但它们并不是很灵活。

「但是如果你将训练好的模型应用到低端 X 光机或不同医院拍摄的 X 光片上(图像比较模糊,或者角度有偏差),那么人类放射科医生的表现会比现在的学习算法泛化性能好得多。因此我认为有趣的研究是尝试改善学习算法在新场景中的泛化性。」

Yann LeCun

Yann LeCun 是纽约大学教授、Facebook 首席 AI 科学家、Facebook AI 研究院(FAIR)创始人。

LeCun 认为 FAIR 执行的开源策略帮助推动其他大型技术公司的开源之路,他认为开源可以促进 AI 领域的发展。

「开源促进整个领域更快地发展,因为更多的人可以就研究进行沟通交流,这会产生非常大的影响。今天大家所看到的 AI 领域发展速度主要是因为更多人更加迅捷、高效地互相交流,同时做了更多的开放性研究。」

关于伦理,LeCun 很高兴地看到大家能够考虑研究的伦理影响以及带有偏见的决策的风险性。

「人们应该注意伦理问题,这在现在已经成为共识。而两三年前情况完全不同。」

LeCun 称,他认为 AI 领域的伦理和偏见不是需要立即采取行动的大问题,但是人们应该为此做好准备。

「我认为……有一些亟待解决的关乎生死的大问题,但是伦理和偏见问题终有一天会到来,我们需要……理解这些问题,并在它们发生之前防患于未然。」

吴恩达一样,LeCun 想看到更多灵活、鲁棒的 AI 系统,它们不需要特定质量的输入数据或固定条件也能获得准确的输出。

LeCun 表示,研究者已经可以很好地利用深度学习管理感知,但缺乏对完整 AI 系统整体架构的理解。

他认为,教会机器通过观察世界来学习需要自监督学习或基于模型的强化学习

「不同的人对此的称呼不同,但本质上人类婴儿和动物通过观察和分辨大量关于世界的背景信息来学习世界的运作原理,我们不知道如何让机器学会这么做,而这是一项重要挑战。AI 和机器真正取得进步的一个重要标志是具备常识,以及虚拟助手可以更流畅自然地谈论更多话题、参与更多讨论。」

对于帮助 Facebook 内部运营的应用,LeCun 称自监督学习的巨大进步以及仅靠少量数据也能返回准确结果的 AI 系统将非常重要。

「在解决整个问题的过程中,我们希望能够找到一些方式来减少任意任务所必需的数据量(如机器翻译或图像识别任务等),我们在这个方向已经有所进展。我们已经通过弱监督或自监督学习对 Facebook 所用的机器翻译和图像识别系统带来了好的影响。所以这些并不是长期的,它们在短期内就可以带来效果。」

LeCun 希望未来能够看到 AI 在建立因果关系方面有所进步。这一能力不只是通过观察习得,而需要对事物有实际的理解。例如,如果有人打伞,那就有可能下雨了。

「这非常重要,因为如果你想让机器通过观察学得世界模型,那么它必须能够了解它对改变世界状态的影响以及有些事情不能做。如果你在一个房间里,面前有一张桌子,桌上有一瓶水,那么你知道你推一下水瓶,它就会移动,你不会想去移动桌子,因为桌子又大又重,这样的事情都与因果关系有关。」

Hilary Mason

2017 年 Cloudera 收购 Fast Forward 实验室之后,Hilary Mason 成为 Cloudera 的机器学习负责人。虽然已经被并入 Cloudera,但 Fast Forward Labs 还在继续运营,为用户提供应用机器学习报告和建议,帮助他们看到未来半年到两年的发展方向。

2018 年令 Mason 感到惊喜的人工智能进展与多任务学习有关,利用这种技术可以训练单个神经网络在推理时应用多个标签,如在一幅图像中看到的多个对象。

Fast Forward 实验室为用户提供的建议也包含 AI 系统的伦理影响。Mason 越发意识到创建 AI 伦理框架的必要性。

「自从五年前 Fast Forward 创立以来,我们的每一份报告都包含伦理内容,但直到 2018 年,人们才真正开始重视这个问题。我认为,2019 年我们将开始看到结果,以及针对对此熟视无睹的公司或个人的问责机制。」Mason 说道。「有一点我没说清楚,就是我希望数据科学和 AI 的实践应该按某种方式演进,即科研人员和商界领袖都能在利用 AI 创造产品时将伦理、偏见以及这些产品的发展考虑在内,这在今天还不是惯例。」

2019 年,更多 AI 系统将成为商业运营的一部分,Mason 希望产品经理及主管可以为 AI 的前沿发展做出更多贡献,因为他们的职位提供了最大的便利。

「显然,对整个产品了如指掌而且懂商业的人知道什么样的产品有价值,他们处在可以决定投资方向的最佳职位。如果让我预测,我认为那些使用电子表格一类的东西进行简单建模的人会变得非常低能,他们很快也会在发现自己产品中的 AI 机会方面变得非常低能。」

AI 民主化,或者说将 AI 扩展到企业数据科学团队以外的部门,是一些企业所强调的,包括 Kubeflow Pipelines 和 AI Hub 等谷歌云 AI 产品,以及 CI&T 公司为确保人工智能系统在公司内部得到实际利用所提出的建议。

Mason 还表示,越来越多的公司将需要构建管理多个 AI 系统的结构。

与之前描述运维人员所面临的挑战类似,Mason 说道,可以使用手动部署的自定义脚本来管理单个系统,cron 作业可以管理几十个系统。但当你在一个具有安全、管理和风险要求的企业中管理数十或数百个系统时,你需要专业而强大的工具。

企业正从招揽有能力或才华的人才转向系统地追求机器学习和 AI 机会。

由于 Cloudera 最近推出了基于容器的机器学习平台,所以对 Mason 来说,强调部署 AI 所需的容器是有意义的。她认为,这一趋势将在未来几年持续下去,因此企业可以在本地 AI 和云端 AI 部署之间做出选择。

最后,Mason 认为 AI 的商业化将会持续下去,而且将涉及整个行业的惯例,而不是单个公司。

「我想我们将会看到 AI 专业实践的继续发展。现在,如果你在一家公司做数据科学家或机器学习工程师,然后你跳槽去另一家公司,你的工作将会完全不同:不同的工具、不同的预期、不同的报告结构。但我想我们还是会看到一致性。」她说。

参考链接:https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/

产业人工智能吴恩达Yann LeCun
1
相关数据
微软机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
斯坦福大学计算机科学系机构

斯坦福大学计算机科学系隶属于工程学院,提供理学学士、理学硕士和哲学博士学位。它还参与了以下本科跨学科项目:计算机系统工程、符号系统、数学和计算科学。计算机科学系成立于1965年,是本科和研究生阶段的研究和教育中心。强大的研究团队致力于人工智能、机器人学、计算机科学基础、科学计算和系统领域的研究。计算机科学的基础工作是这些小组的主要研究目标,但是也非常强调跨学科研究和促进基础研究的应用。跨学科工作涉及化学、遗传学、语言学、物理学、医学以及工程、建筑和制造等各个领域。该系与大学其他系中对计算机感兴趣的研究人员保持密切联系。此外,教师和学生通常与附近研究机构或行业机构的调查人员一起工作。主要的教育目标是让学生为学界或业界的研究和教学职业做好准备。

吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

few shot learning技术

在标注数据量比较少时,试图让算法学习好的特征,并可以泛化这些罕见的类别,而不需要额外的训练。few shot learning包括基于Finetune、基于metric、基于graph neural network、基于元学习meta learning等方向。如果只有一个标注样本,称为one shot learning。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

语料库技术

语料库一词在语言学上意指大量的文本,通常经过整理,具有既定格式与标记;事实上,语料库英文 "text corpus" 的涵意即为"body of text"。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

多任务学习技术

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~