Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

上海世界人工智能大会——全球异构计算高峰论坛召开在即

还有不到20天,“全球异构计算高峰论坛”就将在上海国际会议中心隆重开幕!本次论坛作为“2018世界人工智能大会”的重头戏,由世界人工智能大会组委会主办,中国电子技术标准化研究院、全球异构系统架构(HSA)联盟、中国异构系统架构标准工作组、华夏芯(北京)通用处理器技术有限公司、全球能源互联网研究院等单位联合承办。

人工智能的底层技术是什么?

自从上世纪70年代英特尔发明微处理器(Microprocessor)芯片以来,人类开始了对处理器(Processor)计算性能永无止境的追求。近30年来我们所经历的每一波产业化浪潮背后的隐形推手都是处理器芯片技术的飞跃。换言之,计算技术是承载着数字化、互联网化、移动互联网化时代的基础性底层技术。处理器不仅成为全世界IT 开发人员公共的技术开发平台,它的升级换代反过来又不断促进电子产品降低成本。在过去很长一段时间,绝大部分计算任务大都运行在被称之为中央处理器(CPU)的芯片上, 2012 年科学家们发现一个神经网络的算法运行在图形处理单元(GPU 等)芯片上比运行在 CPU 上要高效得多,由此拉开了以神经网络深度学习为代表的新一代人工智能时代的序幕。接着人们发现,不同的人工智能算法非常适合运行在数字信号处理器(DSP)、可编程逻辑门阵列(FPGA)等传统架构芯片上,以及谷歌推出的张量计算单元( TPU )等创新架构的芯片上,在不同应用领域都能够取得很好的计算效果。有别于之前的围绕 CPU 形成的“同构”计算技术,未来人工智能的底层技术将是“异构”计算——即由CPU、DSP、GPU、FPGA、TPU等不同架构的处理器组成的更复杂的结构体系。

全球异构计算技术的发展

Intel的CTO Mike Mayberry最近以“未来如此光明 —— 异构计算时代的到来”为主题,发表了关于异构计算的演讲,他认为:在大数据人工智能时代,海量和不同类型的数据处理需要快速集成现有和创新的计算架构,这成为异构计算发展的直接动力,因此Intel在未来将致力于提供更有效的异构设计芯片产品,并缩短异构产品推向市场的时间。除开英特尔外,英伟达、IBM、AMD、赛灵思等芯片巨头和一些创新的芯片公司,都在异构计算领域加紧布局,力求占领异构计算的制高点。在量子计算、类脑计算短时间还难以大规模商用的情况下,异构计算因其在性能、编程、开发等方面相对于传统芯片架构的显著优势,已成为人工智能芯片的主流设计架构,并在数据中心、智能手机、无人驾驶、智能安防、5G等领域开始规模化应用。

本次大会的重要看点

作为本年度全球异构计算领域的顶级会议,论坛汇聚了当今全球在异构计算领域的重磅企业和顶级大咖,全方位、多视角的分析解读了当前国际、国内异构计算行业的发展状况、发展热点、技术趋势和生态环境,并进行一系列学术和产业的重磅发布!

出席论坛并将进行主题报告的部分学术及行业大咖包括:

倪光南  

中科院计算所研究员、中国工程院院士。倪院士是我国著名的计算科学专家,先后两次获得国家科技进步一等奖,2011年和2015年分别获得中国中文信息学会和中国计算机学会终身成就奖,一直致力于发展我国自主可控的信息核心技术和产业。本次论坛,倪光南院士将首次系统、全面的阐述对我国异构计算技术和产业发展的权威看法。

Dr. John Glossner

全球异构系统架构联盟(HSAF)主席。John Glossner博士是外专千人计划专家和全球异构系统架构联盟(HSAF)主席,曾担任美国软件无线电协会主席。John Glossner博士拥有超过120篇出版物和36项专利,是目前全球异构计算领域的顶级专家。本次论坛,Dr. John Glossner将系统介绍目前全球异构计算发展进展情况。

Dr. Zvonimir Bandic

西部数据公司新一代平台计算部 高级总监、RISC-V 基金会,OpenCAPI and Rapid-IO 等标准组织的董事。Zvonimir Bandic博士将向大会分享新一代开源指令架构RISC-V与智能存储的最新进展情况。

Dr. Andreas Schlapka

美光,网络事业部总经理。Andreas Schlapka博士将向大会分享高性能异构计算平台(HPC)在人工智能中的应用。

Allen Rush

AMD 高级院士,计算和图形业务集团首席技术官。会上将向大家报告基于GPU加速的异构计算芯片及在人工智能中的最新应用。

Dr.Pekka Jääskeläinen

Tampere University of Technology 教授。Pekka Jääskeläinen教授将在大会报告面向低功耗人工智能专用加速器的设计方案。

张小东 博士

全球异构系统架构HSA联盟中国区域委员会 主席、中国异构系统架构标准工作组 组长、华夏芯(北京)通用处理器技术有限公司 战略技术总监。张小东博士将向大会报告华夏芯基于统一指令架构的异构处理器核IP与系统芯片SoC的最新进展情况。

虞志益

中山大学 教授 博士生导师,美国卡内基梅隆大学(CMU)电子与计算机工程系,兼职教授。会上,虞志益教授将代表中国异构计算标准工作组介绍中国异构计算标准的最新进展情况。

IEEE Senior Member、中国异构架构标准工作组 片上互连工作组主席、亚太信号与信息处理协会(APSIPA) Signal Processing Systems技术委员会 副主席、ASSCC、ASICON等一系列国际学术会议的技术委员会成员。

全球异构计算高峰论坛 报名注册现已开启(9月10日17:30系统关闭),名额有限,报名从速哦!

报名方式:

第一步:访问官网注册页面,填写信息并提交;

官网注册页面:http://www.waic2018.com/forums-register.html

第二步:点击异构计算高峰论坛专属链接,点击“即刻预约” -> 选择邀请码预约 -> 填写邀请码(69B3A52EA079)-> 预约成功;

论坛预约链接:http://www.waic2018.com/forums-detail.html?id=27

第三步:完善个人信息 -> 领取证件方式选择“快递到家或现场领取” -> 保存。

以大会官网注册和审批流程为准,如有疑问,请邮件咨询 waic2018@hc-alliance.org

了解2018世界人工智能大会的更多信息,访问大会官网:

http://www.waic2018.com/

产业活动
2
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

数字信号处理技术

数字信号处理(digital signal processing),简称DSP,是指用数学和数字计算来解决问题。 大学里,数字信号处理常指用数字表示和解决问题的理论和技巧;而DSP也是数字信号处理器(digital signal processor)的简称,是一种可编程计算机芯片,常指用数字表示和解决问题的技术和芯片。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

推荐文章
暂无评论
暂无评论~