Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

超衍射极限1.5倍,成像条件低10倍,清华、中国科学院用AI方法提高显微镜分辨率

图片

图示:通过 ZS-DeconvNet 对快速光敏生物过程进行长期 SR 成像。(来源:论文)

编辑 | 萝卜皮

计算超分辨率方法,包括传统的分析算法和深度学习模型,极大地改进了光学显微镜。其中,有监督深度神经网络表现出了出色的性能,但由于活细胞的高动态性,需要大量的高质量训练数据,而获取这些数据非常费力甚至不切实际。

在最新的研究中,清华大学和中国科学院的研究人员开发了零样本反卷积网络(Zero-shot deconvolution networks,ZS-DeconvNet),可立即将显微镜图像的分辨率提高超过衍射极限 1.5 倍以上,同时荧光比普通超分辨率成像条件低 10 倍,以无监督的方式进行,无需地面事实或额外的数据采集。

研究人员还展示了 ZS-DeconvNet 在多种成像模式上的多功能适用性,包括全内反射荧光显微镜、三维宽视场显微镜、共焦显微镜、双光子显微镜、晶格光片显微镜和多模态结构照明显微镜;它能够对从有丝分裂单细胞到小鼠和秀丽隐杆线虫的多细胞胚胎的亚细胞生物过程进行多色、长期、超分辨率 2D/3D 成像。

该研究以「Zero-shot learning enables instant denoising and super-resolution in optical fluorescence microscopy」为题,于 2024 年 5 月 16 日发布在《Nature Communications》。

图片

光学荧光显微镜对于生物研究至关重要,而超分辨率技术的进步极大提高了成像细节,但伴随空间分辨率提升的是其他成像参数的折衷。计算超分辨率方法凭借其能在线提升图像质量、增强现有设备性能且扩展应用范围的能力,成为研究热点。

这些方法分为基于分析模型的去卷积等技术和基于深度学习的 Super-Resolution(SR)网络两大类。前者受限于参数调优及对复杂成像环境适应性差的问题,后者虽能通过大数据学习复杂图像转换,却面临数据获取难度大、高度依赖训练数据质量的挑战,这限制了深度学习超分辨率技术在生物研究日常应用中的普及。

在这里,清华大学和中国科学院的研究团队提出了一个零样本反卷积深度神经网络框架 ZS-DeconvNet,它能够以无监督的方式训练 DLSR 网络,仅使用一张低分辨率和低信噪比的平面图像或体积图像堆栈,从而实现零样本实现。

图片

图示:零样本反卷积网络。(来源:论文)

因此,与最先进的 DLSR 方法相比,ZS-DeconvNet 可以适应不同的生物成像环境,其中生物过程过于动态、对光过于敏感而无法获取真实的 SR 图像,或者图像获取过程受到未知和非理想因素的影响。

研究人员表示,即使在单个低信噪比输入图像上进行训练,ZS-DeconvNet 也可以将分辨率提高超过衍射极限 1.5 倍以上,并具有高保真度和可量化性,并且无需进行特定于图像的参数调整。

ZS-DeconvNet 适用于多种成像模式,从扫描显微镜到宽场检测显微镜,并在多种样本和显微镜设置中展示了其能力。

图片

图示:将 ZS-DeconvNet 推广到多种成像模式。(来源:论文)

研究人员证明了经过适当训练的 ZS-DeconvNet 可以在毫秒时间尺度上推断出高分辨率图像,实现对多个细胞器相互作用、迁移和有丝分裂的光敏感过程中的细胞骨架和细胞器动力学,以及发育中的线虫和小鼠胚胎的亚细胞结构和动力学的高通量长期 SR 2D/3D 成像。

图片

图示:多模态 SIM 数据中的零样本去噪和分辨率增强。(来源:论文)

此外,为了让生物学研究社区能够广泛使用 ZS-DeconvNet,该团队建立了一个 Fiji 插件工具箱和一个 ZS-DeconvNet 方法的教程主页,用户无须深度学习知识也能轻松使用。

尽管具有广泛适用性和稳健性,ZS-DeconvNet 用户需注意潜在的幻想生成及其局限,如低荧光信号误识别、应用于不同成像模式的图像时性能下降、PSF 匹配不当导致的问题,以及无监督学习下的分辨率提升不如监督学习明显。

未来,通过结合更先进的网络架构、拓展至其他光学超分辨技术、采用领域适应或泛化技术,以及处理空间变化的PSF,ZS-DeconvNet的功能和应用范围将进一步扩大。

论文链接:https://www.nature.com/articles/s41467-024-48575-9

理论深度神经网络深度学习
相关数据
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

图像转换技术

图像到图像的转换是从一个域获取图像并对其进行转换以使它们具有来自另一个域的图像的样式(或特征)的任务。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

量化技术

深度学习中的量化是指,用低位宽数字的神经网络近似使用了浮点数的神经网络的过程。

推荐文章
暂无评论
暂无评论~