基于字典学习的鲁棒光场显微

<

撰稿

清华大学脑与认知科学研究院

通常在毫秒量级的时间尺度及三维空间中,如神经元的电压活动和钙离子活动、跳动心脏中的血细胞流动和胚胎细胞中的膜动力学等,这要求在三维空间中以高时空分辨率记录细胞结构来观察和理解这些现象。

为此,许多技术被开发来满足这一要求,包括共聚焦和多光子扫描显微镜、光片显微镜和结构光照明显微镜等。

虽然这些技术结合了轴向扫描相实现三维成像,其时间分辨率受到扫描设备的严重限制。为了实现更快速的三维成像,多路复用和优化采样技术如多平面或多焦点成像、时空聚焦显微成像和随机获取显微成像等等被引入,但这些方法带来的高光毒性使其难以在活体器官上实现高通量的大范围成像。

光场显微镜(LFM)通过微透镜阵列(MLA)在单个2D像感器上捕获4D光场,可以实现单次拍摄对生物样本进行高速荧光体成像。同时,光场显微成像采用体激发-体探测的方式,有效降低了体成像的光毒性,实现长时程成像。

尽管具有诸多优势,当前的光场显微镜在三维重建时会产生多种伪影,影响生命科学结论。此外,传统光场成像性能在恶劣环境下(如低照度、高噪声)下降严重,无法完成长时程下对光敏感样本拍摄的生命科学任务。

图源:该论文所属课题组

为此,清华大学脑与认知科学研究院、清华大学自动化系戴琼海教授团队提出了一种基于字典学习的光场显微成像方法(Dictionarylightfieldmicroscopy,DiLFM),利用光场成像模型和少量的训练数据,即可有效去除光场成像中的伪影,并显著提升恶劣环境下拍摄的鲁棒性。该方法可以实现对果蝇胚胎的清晰三维成像,并实现百赫兹速率与低照度情况下的斑马鱼血流观测等等一系列生物实验,进一步拓展了光场显微镜的应用领域与成像性能。

图1字典学习提升光场成像性能算法原理图

该研究成果以DiLFM:anartifact-suppressedandnoise-robustlight-fieldmicroscopythroughdictionarylearning为题在线发表在Light:ScienceApplications。

该研究团队提出基于字典学习的光场重建方法,实现对多种重建伪影的消除,同时具有对恶劣成像场景的鲁棒性,可实现对样本进行低功率长时程清晰成像,极大扩展了对光毒性敏感的生物体(如斑马鱼幼鱼)的研究空间。

该光场重建法首先通过对比重建前后样本的差异,得到受恶劣场景干扰和伪影影响的元图像碎片,然后将这些元图像碎片结构成字典,用于在测试图片中对比发现受噪声和伪影影响的区域,并进一步将其替换成高分辨、无伪影的图片,提升图片重构质量。通过在虚拟重建过程中引入不同尺度的噪声干扰,可以进一步让字典掌握噪声对成像质量的影响,实现对噪声的鲁棒补偿。借助这一方法,可以实现去伪影的果蝇脑切片重建(图2)。对比传统的重建方法,字典学习光场重建算法还原了在焦面附近被微透镜编码为离散的块状结构,去除了频域中非自然的周期性频率分量,使得图像更为自然。进一步,字典重建方法提升了对果蝇脑切片的成像分辨率。

图2字典学习光场重建实现去伪影果蝇脑切片重建

斑马鱼幼鱼是经典的研究发育生物学的模式动物,但其长时间的观测容易受到光漂白和光毒性的影响。为了实现对这类样本的长期观测,我们采用极低的光照强度避免光损害,同时通过字典光场算法提升其在低光照噪声环境下的鲁棒性。如图3所示,传统光场重建充满了网格状伪影,且神经元容易误分割、信噪比很低;利用字典光场后,图像的背景得到抑制,神经元的轮廓更为清晰,神经元的活动也更明显,有助于研究斑马鱼幼鱼长时间内的神经活动。

图3字典学习光场重建实现低照度下斑马鱼成像

针对目前光场成像在生命科学应用中面临的伪影和受恶劣成像环境影响的问题,本文提出了一种基于字典学习的光场重建算法,利用光场物理模型和数据先验去除重建的一系列伪影,提升光场显微镜在极低照度下的表现。该方法进一步提升了光场成像的准确性、显著降低了对照明光强的需求,使其能够实现更长时间的活体观测,特别是对于光照敏感的模式生物,有助于研究不同时间尺度下生物的发育、学习等前沿热点。

论文信息:

Zhang,Y.,Xiong,B.,Zhang,Y.etal.DiLFM:anartifact-suppressedandnoise-robustlight-fieldmicroscopythroughdictionarylearning.LightSciAppl10,().

本文通讯作者为清华大学脑与认知科学研究院、清华大学自动化系戴琼海教授和吴嘉敏助理教授。本文第一作者为清华大学博士生张元龙、熊博。

论文

转载请注明:http://www.abuoumao.com/hytd/9216.html

  • 上一篇文章:
  • 下一篇文章: 没有了
  • 网站简介| 发布优势| 服务条款| 隐私保护| 广告合作| 网站地图| 版权申明

    当前时间: 冀ICP备19029570号-7