Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

吹响集结的号角:O'Reilly和Intel人工智能大会北京站在召唤!

专注于探讨 AI 技术落地的大会

由著名传媒公司O'Reilly 和科技巨头 Intel 联合举办的AI Conference,聚集了一众 AI 顶级大佬,通过培训、教学辅导课、主题演讲,议题分享等环节,探讨 AI 技术最新进展及应用场景。这将是一场盛况空前的 AI 从业者集会。

O'Reilly 会议由来已久,最早要追溯到 1997 年的O'Reilly软件网站会议 (加州圣何塞), 20 多年里,O'Reilly 举办了两百多场大型会议,内容涵盖计算机行业里各个领域。

这些会议汇集了数万名领先的创新者,探讨技术和业务转型的前沿新兴趋势和关键挑战。「开源」(OpenSource) 这个词就诞生于 O'Reilly 会议,而人工智能会议则是在 2017 年加入这个大家族。

O'Reilly AI Conference 与北京的缘分,始于 2018 ,而今夏,又将回归北京,这必定是再一次的美妙相遇。

大会的嘉宾,也一直是 O'Reilly AI Conference 的重要筹码。比如去年的Michael Jordan 李飞飞、李开复、Rena el Kaiouby Peter Norvig李佳 Lili Cheng这些 AI 界的明星级人物。

今年的大会也邀请了人工智能学界、工业界的诸多重量级嘉宾,包括 Intel 架构、图形和软件副总裁马子雅加州大学伯克利分校 EECS 教授 Ion Stoica,Google Brain 团队中移动和嵌入式 TensorFlow Group 的技术主管Pete Warden,以及阿里达摩院的大神贾扬清等等。

大会演讲主题:

 6 20-21 整整两天的演讲中,安排了数十位人工智能行业界的重要嘉宾和讲师,从学界、工业界、商业界等不同角度,分享他们的经验。

企业中的人工智能:执行简报,案例研究及用例,行业特定应用;

人工智能对商业及社会的影响:自动化,安全,规范;

实施人工智能项目:应用,工具,架构,安全;

人工智能交互:设计,指标,产品管理,机器人;

模型及方法:增强及机器学习TensorFlow深度学习, GAN ,自然语言处理及理解,语音识别计算机视觉

部分主题:

  • 基于人工智能大数据分析,驱动大规模高效洞察

Unifying analytics and AI on big data for faster insights at scale 

  • 通过云服务为 AI 加速创新

Accelerate innovations with AI in the cloud 

  • 如何通过定制 AI 处理器,提高生产力和效率

Increasing AI productivity and efficiency with purpose-built AI processors

  • 未来的招聘:与 AI 深度结合

The future of hiring and the talent market with AI

  •  RISELab 中实现人工智能系统

AI and systems at RISELab 

  • 走近学习算法,数据结构和系统

Toward learned algorithms, data structures, and systems 

  • 人工智能的计算机硬件设计

Designing computer hardware for artificial intelligence

  • 自动驾驶技术和未来自主仓到仓运输

Self-driving technology and the future autonomous depot-to-depot transport

  • 人工智能大数据和云技术的数据编配

 Data Orchestration for AI, Big Data, and Cloud

更多议题见官网。

人工智能培训课程(天)

在 6 月 18-19 两天,大会安排了三个方向的培训课程,并邀请了经验丰富的导师,通过深度培训的形式,带来非常优质的课程。

内容涵盖量化金融风险、PyTorchTensorFlow 三个方向,将结合课程讲解、实操训练的方式,让学员快速掌握相关知识和最佳实践。

量化金融信用与风控分析

时间:618-19 09:00 - 17:00

地点:多功能厅2

该辅导课基于清华大学交叉信息研究院开设的一门「量化金融信用与风控分析」研究生课。其中会用 LendingClub 的真实借贷数据做为案例,解说一些具体模型的实现。

导师介绍

种骥科博士:清华兼职教授,现任美国 Acorns 首席数据科学家,种骥科曾任职于宜人贷首席数据科学家,负责反欺诈风控和数字驱动的运营和创新。种骥科曾任美国卡内基梅隆大学教授与博士生导师,持有加州大学伯克利分校电子工程和计算机科学系博士学位,卡内基梅隆大学电子和计算机工程系硕士及本科学位。

黄铃博士:慧安金科(北京)科技有限公司创始人、CEO,清华大学交叉信息研究院兼职教授。毕业于美国加州大学伯克利分校,获得计算机科学博士学位。

陈薇博士:现任排列科技首席科学家,江西互联网金融协会特聘风控专家,博金贷金融科技研究院院长。持有内布拉斯加大学计算机科学系博士学位,清华大学计算机工程系硕士及中国人工智能重点实验室成员,曾担任数个学术期刊评审,发表专业论文数十篇。

PyTorch 深度学习

时间:618-19 09:00 - 17:00

地点:多功能厅 6A+B

PyTorch 是一个基于 Python 的机器学习库,方便用户灵活地构建深度神经网络,导师 Rich Ott 将介绍《如何用 PyTorch 完成深度学习的工作流程》,并介绍 PyTorch 的 API 调用和 如何配合 GPU 使用。导师为学员准备了基于真实数据的数据集,和构建深度学习模型所需的知识。

导师介绍:

Richard Ott 就职于 Verizon ,担任数据科学家和软件工程师,Richard 拥有麻省理工学院的粒子物理学博士学位,和加州大学戴维斯分校的博士后学位

TensorFlow 深度学习

时间:618-19 09:00 - 17:00

地点:多功能厅 5A+B

TensorFlow 库为用户提供跨资源自动并行化的计算图,是实现神经网络的理想架构。 Season Yang 将介绍 TensorFlow 在 Python中的使用,以及如何使用 TensorFlow 提供的 Keras API,并通过几个最佳实践,让学员逐步掌握机器学习的算法。

导师介绍:

Season Yang是麦肯锡公司风险实践的分析研究员。 毕业于加州大学戴维斯分校,获得应用数学和科学计算与经济学双学士学位,后于哥伦比亚大学应用数学专业,获得硕士学位,专攻数值计算。

七大主题教学辅导课(小时)

  • 实用指南:机器学习中可解释性和偏差评估

A practical guide toward explainability and bias evaluation in machine learning

  • Analytics Zoo:在 Apache Spark 上实现分布式 TensorFlow  Keras

Analytics Zoo: Distributed TensorFlow and Keras on Apache Spark

  • 基于深度学习时间序列预测

Deep learning for time series forecasting

  • 英特尔 OpenVINO:从边缘计算云计算,为深度学习推理和计算机视觉加速

Intel OpenVINO: Accelerating deep learning inference and computer vision from edge to cloud

  • 人工智能产品的设计思路

Design thinking for AI

  • 通过自动化机器学习民主化和加速AI落地

Democratizing and accelerating AI through automated machine learning

  • 使用 Ray 构建强化学习模型和AI应用程序

Building reinforcement learning models and AI applications with Ray

近百场精彩议题请登录会议官网查看。

最后报名时刻:

本届AI Conference 2019北京站门票正在热卖中,培训课席位有限,机不可失。搜索“AI大会”或“人工智能大会”,进入官网查看详情。

产业活动
1
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
李佳人物

李佳,此前曾任谷歌云机器学习/人工智能研发负责人(Head of R&D, AI/ML, Senior Director at Cloud,Google)。本科毕业于中国科大自动化系。新加坡南洋理工大学硕士。在伊利诺伊大学香槟分校、普林斯顿大学与斯坦福大学跟随李飞飞从事计算机视觉研究。2011 年获斯坦福大学计算机科学博士。曾在谷歌实习,2011 年加入雅虎,2014 年成为雅虎资深研究员,开始领导雅虎实验室的视觉计算和机器学习部门。2015 年 2 月,Snapchat 聘请李佳担任公司研发主管。2016 年加入谷歌。2018年11月从谷歌离职,全职参与斯坦福医学院智能医院项目。

相关技术
李飞飞人物

李飞飞,斯坦福大学计算机科学系教授,斯坦福视觉实验室负责人,斯坦福大学人工智能实验室(SAIL)前负责人。专业领域是计算机视觉和认知神经科学。2016年11月李飞飞加入谷歌,担任谷歌云AI/ML首席科学家。2018年9月,返回斯坦福任教,现为谷歌云AI/ML顾问。10月20日斯坦福大学「以人为中心的AI计划」开启,李飞飞担任联合负责人。11月20日李飞飞不再担任SAIL负责人,Christopher Manning接任该职位。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

数据分析技术

数据分析是一类统计方法,其主要特点是多维性和描述性。有些几何方法有助于揭示不同的数据之间存在的关系,并绘制出统计信息图,以更简洁的解释这些数据中包含的主要信息。其他一些用于收集数据,以便弄清哪些是同质的,从而更好地了解数据。 数据分析可以处理大量数据,并确定这些数据最有用的部分。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

Apache Spark技术

Apache Spark是一款快速、灵活且对开发者友好的工具,也是大型SQL、批处理、流处理和机器学习的领先平台。它是一个围绕速度、易用性和复杂分析构建的大数据处理框架,提供了一个全面、统一的框架用于管理各种不同性质(文本数据、图表数据等)数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。

边缘计算技术

边缘运算(英语:Edge computing),又译为边缘计算,是一种分散式运算的架构,将应用程序、数据资料与服务的运算,由网络中心节点,移往网络逻辑上的边缘节点来处理。边缘运算将原本完全由中心节点处理大型服务加以分解,切割成更小与更容易管理的部分,分散到边缘节点去处理。边缘节点更接近于用户终端装置,可以加快资料的处理与传送速度,减少延迟。在这种架构下,资料的分析与知识的产生,更接近于数据资料的来源,因此更适合处理大数据。

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

时间序列预测技术

时间序列预测法其实是一种回归预测方法,属于定量预测,其基本原理是;一方面承认事物发展的延续性,运用过去时间序列的数据进行统计分析,推测出事物的发展趋势;另一方面充分考虑到偶然因素影响而产生的随机性,为了消除随机波动的影响,利用历史数据进行统计分析,并对数据进行适当处理,进行趋势预测。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

自动化机器学习技术

机器学习最近在许多应用领域取得了长足的进步,这促成了对机器学习系统的不断增长的需求,并希望机器学习系统可以被新手快速地熟悉并使用。相应地,越来越多的商业企业推出产品旨在满足这种需求。这些服务需要解决的核心问题是:在给定数据集上使用哪种机器学习算法、是否以及如何预处理其特征以及如何设置所有超参数。这即是自动化学习(AutoML)企图解决的问题。

推荐文章
河南大学・计算机科学与技术・学士
有网络视频直播吗