编辑 | 绿萝
由 860 亿个神经元组成的人类大脑可以进行非凡的计算。然而它只消耗十几瓦的能量。它是如何做到的?
人脑包含多个区域,这些区域具有不同的、通常高度专门化的功能,从识别人脸到理解语言,再到思考别人在想什么。
当今最成功的人工智能算法——人工神经网络,基于我们大脑中复杂的真实神经网络网络。旨在复制大脑各部分的工作方式,即神经元相互作用以处理和保留信息。
脉冲神经网络(SNN),与现在广泛部署的人工神经网络相比,它更接近地模仿大脑的工作方式。
从大脑中汲取灵感,研究人员设计新型神经形态芯片,能效大大提高;提出新的受生物学启发的人工和尖峰神经网络优化器,开发纳米磁体网络,用于执行类似 AI 的计算处理;构建 Transformer......
反过来,人工智能帮助科学家更好的了解大脑的工作方式和各区域的功能,以及助力医学研究。
以下是 ScienceAI 2022 年「AI+大脑&类脑计算」专题报道的年度总结。
友情提示:点击小标题可直接访问文章
- 具有生物启发训练方法的物理深度学习:物理硬件的无梯度方法
- MIT提出封闭式连续时间神经网络,解决大脑动力学问题可产生灵活的机器学习模型
- 新的深度学习方法可能有助于预测大脑认知功能
- 从大脑中汲取灵感,能效提高了 1000 倍,新芯片拓展AI的可能性
- 对大脑进行逆向工程以解码来自输出神经元放电的输入信号
- Transformers 如何模仿大脑的某些部分
- 自学成才的人工智能显示出与大脑工作方式的相似之处
- 大脑带来的启发:深度神经网络优化中突触整合原理介绍
- 像大脑一样,纳米磁体网络可用于执行类似 AI 的计算处理,可降低能耗
- 单个神经元通过预测未来活动来学习,有助于解释大脑是如何工作的
深度学习模型模拟大脑地形图,有助于回答大脑不同部分如何协同工作 - MRI 扫描和机器学习算法显示人脑类似于明胶,比聚苯乙烯更容易分解
- 2.4 纳米厚的分子层,揭示分子水平上的「类脑计算」是可能的
- 脑机领域新进展:国内团队开发化学介导的人工神经元,可与大鼠脑细胞交换神经递质
- 「比人脑中的突触快100万倍」,MIT的新硬件为人工智能提供了更快的计算速度,而且能耗更低
- 使用 GPU 发现人脑连接,大规模 GPU 实现了 100 倍的加速
- 深度神经网络每秒分类近20亿张图像,新型类脑光学分类器芯片登上Nature
- 具有随机突触的神经采样机,允许类脑学习和推理
- 首个可公开访问的 3D 全脑图,具有前所未有的细节
- Nature 评述:类脑计算需要一个总体规划
- 迈向模仿人脑的光电芯片:对一位热衷于改进 SNN 的 NIST 研究人员的采访
- 类脑功能特化在深度神经网络中自发出现
- 人工智能克服了类脑硬件的绊脚石