Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

清华光电计算新突破:芯片性能提升万倍,研究登顶Nature

清华大学团队在超高性能计算芯片领域取得新突破,相关研究发表在Nature上。

随着各类大模型和深度神经网络的涌现,如何制造出满足人工智能发展、兼具大算力和高能效的下一代 AI 芯片,已成为国际前沿热点。

中国科协发布的 2023 重大科学问题中「如何实现低能耗人工智能」 被排在首位。

近日,清华大学团队在高性能计算芯片领域取得新突破。相关成果以《面向高速视觉任务的纯模拟光电计算芯片》(All-analog photo-electronic chip for high-speed vision tasks)为题发表在 Nature 上。

这枚芯片基于纯模拟光电融合计算架构,在包括 ImageNet 等智能视觉任务实测中,相同准确率下,比现有高性能 GPU 算力提升三千倍,能效提升四百万倍

图片

                                  图1 相关论文(来源:《Nature》)

论文地址:

Chen, Y. et al. All-analog photoelectronic chip for high-speed vision tasks. Nature https://doi.org/10.1038/s41586-023-06558-8 (2023).

未来已来?光为载体的计算芯片

实现算力飞跃并非易事,特别是当前传统的芯片架构,受限于电子晶体管大小逼近物理极限。全新计算架构成为破局的关键。光计算以其超高的并行度和速度,被认为是未来颠覆性计算架构的最有力竞争方案之一。

光计算,顾名思义是将计算载体从电变为光,利用光在芯片中的传播进行计算。面对以光速计算的诱人前景,数年来海内外知名科研团队相继提出多种设计,但要替代现有电子器件实现系统级应用,仍面临重大瓶颈

  • 一是如何在一枚芯片上集成大规模的计算单元(可控神经元),且约束误差累计程度;
  • 二是实现高速高效的片上非线性;
  • 三是为兼容目前以电子信号为主体的信息社会,如何提供光计算与电子信号计算的高效接口。当前常见的模数转换功耗,较光计算每步乘加运算高出多个数量级,掩盖了光计算本身的性能优势,导致光芯片难以在实际应用中体现出优越性。

系统级算力和能效,超现有芯片万倍

为解决这一国际难题,清华大学团队创造性地提出了模拟电融合模拟光的计算框架,构建可见光下的大规模多层衍射神经网络实现视觉特征提取,利用光电流直接进行基于基尔霍夫定律的纯模拟电子计算,两者集成在同一枚芯片框架内,完成了 “传感前 + 传感中 + 近传感” 的新型计算系统。极大地降低了对于高精度 ADC 的需求,消除传统计算机视觉处理范式在模数转换过程中速度、精度与功耗相互制约的物理瓶颈,在一枚芯片上突破大规模集成、高效非线性、高速光电接口三个关键瓶颈。

图片

                                 图 2. 光电计算芯片 ACCEL 的计算原理和芯片架构(来源:《Nature》)

实测表现下,ACCEL 芯片的系统级算力达到现有高性能芯片的数千倍。同时系统级能效达 74.8 Peta-OPS/W,较现有的高性能 GPU、TPU、光计算和模拟电计算架构,提升了两千到数百万倍

在超低功耗下运行的 ACCEL 将有助于大幅度改善发热问题,对于芯片的未来设计带来全方位突破,并为超高速物理观测提供算力基础。同时对无人系统、自动驾驶等续航能力要求高的场景带来重大利好。

图片

                                 表 1. ACCEL 和现有高性能芯片的系统级实测性能指标对比(来源:《Nature》)

非相干光直接计算

更进一步,ACCEL 芯片还支持非相干光视觉场景的直接计算,如论文中演示的交通场景实验。显著拓展了 ACCEL 的应用领域,有望颠覆目前自动驾驶、机器人视觉、移动设备等领域先将图片拍摄并保存在内存中后进行计算的思路,避免传输和 ADC 带宽限制,在传感过程中完成计算。

图片

                              图 3. ACCEL 可用于电子设备超低功耗人脸唤醒示意动图(来源:清华大学

开辟新路径:颠覆性架构有望真正落地

清华团队提出的新型计算架构不仅对于光计算技术的应用部署意义重大,对未来其他高效能计算技术与当前电子信息系统的融合,亦深有启发。

论文通讯作者之一,清华大学戴琼海院士介绍道,“采用全新原理研发出计算系统是一座大山,而将新一代计算架构真正落地到现实生活,解决国计民生的重大需求,是攀过高峰后更重要的攻关。”

Nature 杂志特邀在 Research Briefing 发表的该研究专题评述也指出,“或许这项工作的出现,会让新一代计算架构,比预想中早得多地进入日常生活(ACCEL might enable these architectures to play a part in our daily life much sooner than expected.)”。

清华大学戴琼海院士、方璐副教授、乔飞副研究员、吴嘉敏助理教授为本文的共同通讯作者;博士生陈一彤、博士生麦麦提・那扎买提、许晗博士为共同一作;孟瑶博士、周天贶助理研究员、博士生李广普、范静涛研究员、魏琦副研究员共同参与了这项研究。
产业ACCEL 芯片清华大学
相关数据
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

准确率技术

分类模型的正确预测所占的比例。在多类别分类中,准确率的定义为:正确的预测数/样本总数。 在二元分类中,准确率的定义为:(真正例数+真负例数)/样本总数

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~