华人小伙瑞士创业,打造类脑芯片,要将功耗降低千倍!

眼下对于这家类脑芯片公司而言,场景落地是最为重要的一环。

撰文 | 寓扬

「如果把当下最为成熟的移动芯片比作一个青壮年人,那么类脑芯片还只是一个2~3岁的孩子。」

这意味着类脑芯片还远不成熟,也意味着它可能在未来具有更大的潜力。放眼行业,推出类脑芯片的公司少之又少,即使是IBM英特尔推出了类脑芯片,更多的还是科研导向,商业落地无从谈起。

一位华人小伙在瑞士攻读博士后期间,机缘巧合踏入这片神秘的土地,进而创业进军类脑芯片,要将这个2~3岁的「孩子」和场景结合,踏上未知的落地应用之路。

他就是aiCTX公司CEO乔宁博士。CTX是Cortex(脑皮层)的缩写,公司的名字代表着他希望将AI和脑皮层技术相结合,解决实际应用中的问题。

aiCTX CEO乔宁

今年4月份,aiCTX推出它的第一款类脑处理器芯片DynapCNN,但这款更多的还是一款测试芯片,验证技术上的可能性。乔宁说,公司有望在今年第四季度推出真正可量产的类脑芯片,现在正处在商业落地爬坡期。

他还透露,未来将要推出一款端侧智能视觉SoC,相比传统的端侧AI芯片,功耗会降低100~1000倍,延时响应缩短10倍。

关于类脑芯片的可行性行业一直存在争议,它究竟是科研人的「象牙塔」,还是能经受市场考验的璞玉,落地之战可谓关键。

1  华人小伙瑞士创业,进军类脑芯片


乔宁原本是中科院半导体研究所的博士,2012年毕业后希望去国外攻读博士后,继续从事芯片领域的科研工作。后来机缘之下,他来到瑞士苏黎世大学及苏黎世联邦理工大学神经信息研究所,从事类脑芯片的基础科研与工程研发。该研究所由两所大学联合创办,有20多年成熟的脑科学、神经形态架构、算法、芯片等方向的研发经验。

2015年IBM推出类脑芯片TrueNorth,让业界开始对类脑技术有更多的认知,随后AlphaGo的异军突起让大家对AI有了全新的认知。这些事情也触动着乔宁,希望借着AI的东风,真正将类脑技术落地商用。

正是如此,2017年3月乔宁等人在瑞士创办aiCTX公司,面向端侧IoT场景,研发可商用的神经形态处理器(即类脑芯片)。

目前aiCTX有一个约15人的全职团队,可谓小而精。乔宁任CEO,有超过10年的芯片设计经验;神经信息研究所所长Giacomo Indiveri教授担任CSO,他可谓是世界神经形态科研领军人物;此外董事长Kynan Eng教授在视觉处理器领域有非常深厚的积淀,15人的团队均来自于苏黎世大学、苏黎世联邦理工、洛桑联邦理工等世界顶级高校,专业涉及硬件设计、算法、软件等各个层面。

乔宁向机器之心透露,瑞士团队主要负责芯片研发和IP设计,未来希望在中国建立一个团队,承担系统级方案设计、芯片规模量产以及市场对接工作,这一团队有望在今年年底建立。

aiCTX目前主要聚焦两大业务方向,一块是以动态摄像头为输入的毫瓦级低功耗、低延时的实时动态图像处理应用,主要面向智能家居、机器人、自动驾驶及安防场景;另一块是面向便携、可穿戴设备的口令识别、心电信号等自然信号的微瓦级超低功耗实时处理。

据了解,2017年底aiCTX获得十维资本领投的120万美元天使轮融资,2018年底又获得百度风投领投的数百万美元Pre-A轮融资,目前其也在寻求A轮融资。

2  功耗降低千倍 类脑芯片是如何实现的?


aiCTX的类脑芯片落地步伐可分为两步:从测试芯片走向量产芯片,从专用芯片走向通用芯片。

今年4月份,aiCTX推出了公司的第一款类脑芯片DynapCNN,它是一款视觉AI处理器,芯片面积仅为12平方毫米,采用22nm工艺设计,单芯片集成超过100万脉冲神经元和400万可编程参数,支持多种CNN架构,并具有较为灵活的扩展性。

乔宁表示,DynapCNN处理器很适合应用在轻中量级的端侧动态视觉上,具有实时响应与超低功耗的特性。通过搭载直连动态视觉摄像头,它可以对像素级动态数据流进行连续计算,以自动驾驶路面障碍物识别为例,它对物体实时识别可实现低于5ms的延迟,峰值功耗仅为100mW(毫瓦)。

同样的端侧场景,相比已有的深度学习视觉处理方案,乔宁自信地称,DynapCNN可以将识别响应时延缩短10倍,同时功耗降低100~1000倍。

为何会有如此大的提升?这首先要从类脑芯片的底层架构说起。在传统的冯·诺依曼架构中,计算模块和存储单元互相分离,CPU在执行命令时必须先从存储单元中读取数据,这往往会消耗大量的计算资源,并带来大量的功耗;再加上由于「内存墙」(数据存取速度赶不上计算速度)的存在,这往往又会造成更高的时延问题。

而类脑芯片则「颠覆」了这一传统计算架构,它模拟人脑神经元的方式来进行运算。人脑的特性是存算一体,拥有成百上千亿的神经元可进行大规模计算,在处理任务时具有极高的并行度,并且功耗极低。

正是对人脑的借鉴才有了脉冲神经网络,类脑芯片也采用存算一体的结构,将数字处理器当做神经元,接受脉冲信号后,每个神经元在本地展开运算。

乔宁解释道,类脑芯片最天然的属性是事件驱动运算,以动态摄像头应用为例,输入端是一个很稀疏的数据,只有事件触发才展开运算,当没有事件触发时,机器就不需要运算,这样就大大降低了功耗;另外类脑芯片没有帧的概念,所做的是连续运算,当数据流进来后无需存储,实时处理,这样又做到超低延迟。

另外,每一家做类脑芯片的公司总会宣称自己的芯片有上百万神经元,乔宁说百万神经元是类脑的界限(蜜蜂大脑包含大概一百万神经元),但对于传统的深度学习来说,其实能做的事情还很少,只能做一些简单的手势识别、口令唤醒、避障等任务,因为深度学习是一个非常消耗资源的解决方案。

他也坦言,DynapCNN并不是一款量产芯片,而是一款测试芯片。作为公司的第一款芯片,首先需要对设计工具、设计流程等进行系统级的验证,其次需要对算法层面进行验证。并且,DynapCNN需要外接动态摄像头来完成任务。真正面向商用的集成动态摄像头及处理器与单芯片的SoC级神经形态智能传感器Speck预计将在今年第四季度推出。  

另外,这是一款可编程可配置的CNN架构芯片,主要面向视觉AI场景,由于更多出于测试及通用性考虑,做了很多冗余算力,所以并没有特别定义的落地场景。aiCTX希望它能够直联通动态摄像头,来做一些端侧超低功耗的任务,比如近距离的手势识别、自动驾驶的避障等。

「严格来说这款芯片不算真正意义的类脑芯片,它是用类脑的逻辑来解决传统CNN的问题」,乔宁解释道。在他看来,真正意义的类脑芯片,是从硬件架构、算法都按照类脑的逻辑来设计。

此外,aiCTX也在采用脉冲神经网络(SNN)打造一款通用芯片DynapSE2,它可处理口令识别、心电信号监测等自然信号处理,同样具有实时处理、超低功耗的特性,这款小规模量产芯片的样片可在今年三季度获取。

3  最快第四季度商业量产


场景落地已成为aiCTX目前最为重要的一环。

乔宁透露,针对视觉场景,他们正在打造一款面向商用的SoC芯片——Speck,这款SoC包含动态摄像头模块及片上AI处理器模块,提供一个不依赖于云的本地视觉AI运算的完整的解决方案。Speck是一款集成动态摄像头与AI处理器模块于一体的亚毫瓦智能视觉传感器,AI运算依然采用类脑的硬件逻辑和CNN算法相结合来解决实际问题,由于高度可配置性,可针对不同场景,载入不同网络解决实际问题。

Speck芯片主要针对轻量级视觉场景,可应用在智能家居、智能汽车、机器人、仓库AGV等场景下。在智能家居场景中,可实现家庭成员识别、手势识别、姿态识别等人机交互应用,一节纽扣电池就可以使用很长时间。

再比如汽车场景中,Speck可以进行手势识别,从而实现车内的一些交互。乔宁称, 传统的加速器解决方案,可能每秒处理20帧,这对应的是50ms的延迟,而Speck可以做到更快地实时响应,仅需要5ms的延迟。同样相比传统的深度学习计算,它的整体(摄像头及处理器)峰值功耗仅为1mW,比传统方案降低100~1000倍。

在小区安防方面,传统的解决方案很难做到高速、低延迟、低功耗的统一,而Speck在这方面就有一定优势。此外,野外、鱼塘、铁路、边界等这类需要节省功耗、节省带宽的场景,都可能是类脑芯片的用武之地。

乔宁透露,目前Speck智能视觉传感器已经在跟国内Tier 1汽车零部件供应商、机器人、安防公司,以及欧洲的IoT公司在做一些场景验证,正处在市场对接阶段。这款芯片目前也在设计阶段,预计会在今年7月投片,有望在今年年底或者明年初量产。

在类脑芯片这一领域,IBM曾推出TrueNorth芯片,英特尔曾推出Loihi芯片,面对这些巨头公司aiCTX的芯片又有什么优势呢?

乔宁坦言,如果比拼团队、拼资源,定然比不过这些巨头公司。但IBM英特尔更多的是采用通用架构做基础研究,它是一款科研芯片,不针对一个具体场景。而aiCTX更多针对一个明确的应用场景去落地,因而在功耗,性能以及集成度方面会有更大提升。

4  场景落地已是最为关键一环


但类脑芯片还远不成熟,如果将最为成熟的智能手机芯片比作青壮年,那么类脑芯片还只是一个2~3岁的孩子,行业还处于很早期。

那么类脑芯片距离真正可用还要多久呢?乔宁认为要结合场景来看,视觉物联网端的Speck智能视觉传感器很可能年内落地。在自然信号处理端的应用,如果只是做个相对简单的口令识别/唤醒、手势识别、心电信号监测等,可能明年年中就可以实现。但如果你想让类脑芯片做语义理解、复杂的决策,像人一样明白一句话,则还有很长的路要走。

但目前aiCTX并没有一款真正意义上的落地商用芯片,能否完成场景验证,能否通过市场的考验当下还是一个未知数。对他们来说,场景落地是当下最为重要的一环。乔宁也说,未来1~2年工作的重心会落到动态视觉上。

而从科研的角度来说,行业当下最需要的就是搭建生态。类脑芯片还有很长的路要走,最为核心的是找到一套更加适合类脑芯片架构的算法,从而去提升精度,降低功耗,而非用目前的CNN算法。

产业类脑芯片
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
冯·诺依曼人物

约翰·冯·诺伊曼(德语:John von Neumann,1903年12月28日-1957年2月8日),原名诺依曼·亚诺什·拉约什(匈牙利语:Neumann János Lajos),出生于匈牙利的美国籍犹太人数学家,现代电子计算机与博弈论的重要创始人,在泛函分析、遍历理论、几何学、拓扑学和数值分析等众多数学领域及计算机学、量子力学和经济学中都有重大贡献。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

信号处理技术

信号处理涉及到信号的分析、合成和修改。信号被宽泛地定义为传递“关于某种现象的行为或属性的信息(如声音、图像和生物测量)”的函数。例如,信号处理技术用于提高信号传输的保真度、存储效率和主观质量,并在测量信号中强调或检测感兴趣的组件。我们熟悉的语音、图像都可以看做是一种信号形式。因此,对于语音、图像的增强、降噪、识别等等操作本质上都是信号处理。

人机交互技术

人机交互,是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。

百度机构

百度(纳斯达克:BIDU),全球最大的中文搜索引擎、最大的中文网站。1999年底,身在美国硅谷的李彦宏看到了中国互联网及中文搜索引擎服务的巨大发展潜力,抱着技术改变世界的梦想,他毅然辞掉硅谷的高薪工作,携搜索引擎专利技术,于 2000年1月1日在中关村创建了百度公司。 “百度”二字,来自于八百年前南宋词人辛弃疾的一句词:众里寻他千百度。这句话描述了词人对理想的执着追求。 百度拥有数万名研发工程师,这是中国乃至全球最为优秀的技术团队。这支队伍掌握着世界上最为先进的搜索引擎技术,使百度成为中国掌握世界尖端科学核心技术的中国高科技企业,也使中国成为美国、俄罗斯、和韩国之外,全球仅有的4个拥有搜索引擎核心技术的国家之一。

http://home.baidu.com/
物联网技术技术

物联网(英语:Internet of Things,缩写IoT)是互联网、传统电信网等信息承载体,让所有能行使独立功能的普通物体实现互联互通的网络。物联网一般为无线网,而由于每个人周围的设备可以达到一千至五千个,所以物联网可能要包含500兆至一千兆个物体。在物联网上,每个人都可以应用电子标签将真实的物体上网联结,在物联网上都可以查出它们的具体位置。通过物联网可以用中心计算机对机器、设备、人员进行集中管理、控制,也可以对家庭设备、汽车进行遥控,以及搜索位置、防止物品被盗等,类似自动化操控系统,同时通过收集这些小事的数据,最后可以聚集成大数据,包含重新设计道路以减少车祸、都市更新、灾害预测与犯罪防治、流行病控制等等社会的重大改变,实现物和物相联。

百度风投机构

2016 年 9 月 13 日,百度宣布成立百度风投 (Baidu Ventures),李彦宏亲自出任董事长和投资委员会主席。 百度风投致力于成为「人工智能时代的世界一流 VC」,依托百度作为世界人工智能领先企业的独特平台,通过富有洞察力的行业判断、积极主动的增值服务、独立高效的决策机制,成为优秀人工智能创业者的「共同创始人」,与他们共同成长并分享他们的成功。 百度风投将在北京、硅谷设立区域总部,覆盖全球初创期到成长期的人工智能项目。 2017 年 2 月 6 日,百度宣布前联想之星合伙人刘维作为副总裁正式加盟百度,任百度风投 (Baidu Ventures)CEO,全面负责百度风投的各项工作。同时加入的还有曾任百度高级技术总监、后创办多盟并担任 CEO 的齐玉杰,以及曾任高盛亚洲执行董事及 TA Associates 合伙人的蔡薇。

https://bv.ai/en/
推荐文章
暂无评论
暂无评论~