Deep ADMM-Net for Compressive Sensing MRI NIPS 2016

Deep ADMM-Net for Compressive Sensing MRI

NIPS 2016

 

  摘要:压缩感知(CS)是一种有效的方法进行 快速磁性核磁共振成像(fast Magnetic Resonance Imaging MRI)。目标是从k-space少量未采样的数据重构出 MR 图像,加速了MRI的数据获取。为了改善当前MRI系统的重构精度和计算速度,我们提出了新颖的深度结构,称为:ADMM-Net。ADMM-Net 通过数据流图(a data flow graph)进行定义,从ADMM算法的迭代过程中得到,来优化一个 CS-based MRI model。在训练阶段,网络的所有参数,即:image transforms,shrinkage functions等等,利用L-BFGS算法进行端到端的训练。在测试阶段,利用网络学习到的参数(从CS-based 重构任务上得到的数据)。实验验证了本文方法的有效性。

为了优化 CS-MRI model,ADMM 已经被证明是一种有效的变量分离的方法,并且有收敛性的保证。给定一个CS-MRI模型,考虑到增广拉格朗日函数,将变量分离为几个subgroups,通过分别优化各个子问题的方法进行求解。尽管ADMM这种方法看起来很有效,但是很难确定最优的参数(例如:update rates,penalty parameters),这就大大的影响了最终CS-MRI的性能。

在这个工作当中,我们的目标是设计一种快速但是精准的方法从under-sampled k-space data中进行重构高质量的MR image。我们提出一种新的深度结构,成为:ADMM-Net,受到ADMM迭代过程的启发。这种网络结构是由多个阶段构成的,每一个阶段对应了ADMM算法的每一个iteration。更具体的来说,我们设计了一种深度结构是由 a data flow graph 表示的。ADMM的每一个操作表示为一个graph nodes,ADMM过程中的两个操作的data flow 表示为直接的边。所以,ADMM迭代的过程自然的通过数据流图来决定深度的结构。给定 under-sampled data in k-space,其流过graph并且产生一个重建的图像。所有的深度结构中的参数,可以从under-sampled data in k-space 得到,reconstructed image using fully sampled data backpropagation over the data flow graph.

我们的实验证明了所提出方法的有效性,在重构的精度和速度上。

文章的贡献点可以总结如下:

1. 提出了一种新颖的ADMM-Net,通过将ADMM算法结合到深度网络中,进行CS-MRI。

--- This is achieved by designing a data flow graph for ADMM to effectively build and train the ADMM-Net.

2. ADMM-Net 得到了非常搞得季度,并且速度和很快。

3. 这是第一次将判别性参数学习的方法已经被应用到稀疏编码和MRF当中。

2. Deep ADMM-Net for Fast MRI 

2.1 Compressive Sensing MRI Model and ADMM Algorithm 

General CS-MRI Model: 假设 x 是一张 MRI image 需要被重建,y是under-sampled k-space data,根据CS理论,重构的图像可以通过下面的优化算法进行预测:

ADMM solver:

上述问题可以通过ADMM算法有效的进行求解。通过引入额外的变量,上述公式可以转换为:

其增广拉格朗日函数是:

然后,ADMM算法就可以迭代的求解下面的三个子问题:

然后就可以得到对应的三个solutions:

2.2 Data Flow Graph for the ADMM Algorithm 

为了设计我们的 deep ADMM-Net,我们首先将公式5中的ADMM迭代的过程映射成 a data flow graph。像图1所示的那样,该图的node是由ADMM当中不同的操作构成的,directed edges 对应了操作之间的data flow。在这种情况下,ADMM算法的第n次迭代对应了the data flow graph的第n个阶段。在graph的第n个阶段,有四种类型的节点映射自四种类型的操作,即:reconstruction operation,convolution Operation, nonlinear transform operation 以及multiplier update operation in Equ. 5. 整个数据流图是一个上述阶段的多次重复,对应了ADMM的连续的迭代。给定一个under-sampled data in k-space,其通过graph流过,然后最终产生一个重建的图像。利用这种方式,我们将ADMM迭代映射成一个 data flow graph,这对定义和训练我们的deep ADMM-Net 来说是非常有用的。

2.3 Deep ADMM-Net 

我们的 deep ADMM-Net是通过data flow graph进行定义的。其保持了图的结构,但是对四种类型的操作对应成网络layers 来学习参数。这些操作被对应为:reconstruction layer,convolution layer,non-linear transform layer,以及 multiplier update layer。

Reconstruction layer (X(n)):

Convolution layer,

Non-linear transform layer,

Multiplier update layer

Network Parameters: 

 

3. Network Training: 

We take the reconstructed MR image using fully sampled data in k-space as the ground-truth MR image xgt, and under-sampled data y in k-space as the input. 然后,训练集合T 有这两部分的数据构成。所以,网络的损失函数可以定义为:

3.1 Initialization 

3.2 Gradient Computation by Backpropagation over Data Flow Graph 

时间: 2024-08-08 00:22:48

Deep ADMM-Net for Compressive Sensing MRI NIPS 2016的相关文章

数字图像处理,初识压缩感知Compressive Sensing

声明: 本文为转载, 原作者Rachel-Zhang. 原博客地址:http://blog.csdn.net/abcjennifer 原文地址,http://blog.csdn.net/abcjennifer/article/details/7721834/ 压缩感知是近年来极为热门的研究前沿,在若干应用领域中都引起瞩目.最近粗浅地看了这方面一些研究,对于Compressive Sensing有了初步理解,在此分享一些资料与精华.本文针对陶哲轩和Emmanuel Candes上次到北京的讲座中对

An Introduction to Compressive Sensing

rice大学压缩感知的书,想系统性学习CS的可以看看这本书 下载地址:http://cnx.org/exports/[email protected]/an-introduction-to-compressive-sensing-5.12.pdf 1 Introduction  1.1 Introduction to compressive sensing 2 Sparse and Compressible Signal Models  2.1 Introduction to vector sp

NIPS 2016论文:英特尔中国研究院在神经网络压缩算法上的最新成果

NIPS 2016论文:英特尔中国研究院在神经网络压缩算法上的最新成果 http://www.leiphone.com/news/201609/OzDFhW8CX4YWt369.html 英特尔中国研究院深度学习领域最新成果——“动态外科手术”算法 2016-09-05 11:33 转载 粉红熊熊 0条评论 雷锋网按:本文为英特尔中国研究院最新研究成果,主要介绍了一个名为“动态外科手术”算法,有效地解决了处理大型网络时重训练时间长,误剪枝率高的问题.利用该算法,我们可以轻易地将LeNet和Ale

模型驱动的深度学习(ADMM-net)

流程:模型族->算法族->深度网络->深度学习 模型族:模型中含有超参数,给予不同的参数对应不同的模型,就形成了模型族 算法族:每一个模型对应一个完整算法,整个模型族对应了一个算法族 将算法族展开成一个深度网络,网络层数代表迭代次数,模型的超参数成为网络中的参数(如权重等).利用少量标记数据就可以训练网络. 相对于模型驱动算法的优势: 1.可以学习模型超参数,提高了模型的适应能力,提高精度 相对于数据驱动的优势: 1.网络的设计有模型指导 2.减少了数据需求量 3.减小了训练时间 比如核

Awesome Deep Vision

Awesome Deep Vision  A curated list of deep learning resources for computer vision, inspired by awesome-php and awesome-computer-vision. Maintainers - Jiwon Kim, Heesoo Myeong, Myungsub Choi, Jung Kwon Lee, Taeksoo Kim We are looking for a maintainer

Real-Time Compressive Tracking 论文笔记

整体思想 1 利用符合压缩感知RIP条件的随机感知矩阵对多尺度图像进行降维 2 然后对降维的特征采用简单的朴素贝叶斯进行分类 算法主要流程 1 在t帧的时候,我们采样得到若干张目标(正样本)和背景(负样本)的图像片,然后对他们进行多尺度变换,再通过一个稀疏测量矩阵对多尺度图像特征进行降维,然后通过降维后的特征(包括目标和背景,属二分类问题)去训练朴素贝叶斯分类器(). 2 在t+1帧的时候,我们在上一帧跟踪到的目标位置的周围采样n个扫描窗口(避免去扫描整幅图像),通过同样的稀疏测量矩阵对其降维,

【深度学习Deep Learning】资料大全

转载:http://www.cnblogs.com/charlotte77/p/5485438.html 最近在学深度学习相关的东西,在网上搜集到了一些不错的资料,现在汇总一下: Free Online Books Deep Learning66 by Yoshua Bengio, Ian Goodfellow and Aaron Courville Neural Networks and Deep Learning42 by Michael Nielsen Deep Learning27 by

《Real-Time Compressive Tracking》论文理解

     这是Kaihua Zhang发表在ECCV2012的paper,paper的主题思想是利用满足压缩感知(compressive sensing)的RIP(restricted isometry property)条件的随机测量矩阵(random measurement matrix)对多尺度(multiple scale)的图像特征(features)进行降维,然后通过朴素贝叶斯分类器(naive Bayes classifier)对特征进行分类预测目标位置.   首先介绍下paper

(zhuan) Deep Reinforcement Learning Papers

Deep Reinforcement Learning Papers A list of recent papers regarding deep reinforcement learning. The papers are organized based on manually-defined bookmarks. They are sorted by time to see the recent papers first. Any suggestions and pull requests