
omp算法
菲文学-人参条
2023年2月23日发(作者:维修报价单)基于字典学习与等效视数的低剂量CT伪影抑制算法
杨一鸣;刘祎;桂志国
【期刊名称】《《中北大学学报(自然科学版)》》
【年(卷),期】2019(040)006
【总页数】9页(P559-567)
【关键词】低剂量CT;字典学习;稀疏表示;等效视数
【作者】杨一鸣;刘祎;桂志国
【作者单位】中北大学生物医学成像与影像大数据重点实验室山西太原030051
【正文语种】中文
【中图分类】TP391.41
0引言
近年来,计算机断层扫描(ComputedTomography,CT)在肺癌检查中广泛应用,
主要原因是CT在检测肺部小结节和早期肺癌中比胸部X-线检查更准确[1].数据显
示,一次常规CT检查,受检者将受到剂量约为1.5~20mSv的X射线辐射,且
CT扫描引发的X射线辐射在所有放射检查产生的X射线辐射中比重较大,由于
CT检查可能导致受检者余生患癌的风险加大,医学检测中已将重复CT扫描检查
列为医源性辐射的主要辐射源[2].随着诊断技术的不断改进,限制辐射剂量的低剂
量CT(low-dosecomputedtomography,LDCT)已被用于肺癌高危人群的常规
筛查,但低剂量CT又会造成图像质量下降.如何在扫描剂量尽可能低的条件下,
获取与常规剂量扫描质量相同或者更利于医疗诊断的CT图像,自然就成为相关领
域亟待研究的课题.
目前提高低剂量CT图像质量的方法可以分为三类:投影数据校正法,迭代重建法
和后处理方法.低剂量CT图像的后处理方法,是对已经获取的重建图像进行修正
处理,这类方法不依赖于投影数据,即直接处理滤波反投影算法重建的CT图像,
消除重建图像中的条形伪影和噪声.后处理方法的难点是斑点噪声和条形伪影分布
于整个CT图像上,不满足特定的噪声分布模型.这种方法一般以标准剂量
CT(StandardDoseComputedTomography,SDCT)图像为参考标准,一方面要
保证处理后的结果不能丢失原来低剂量CT图像中较小的组织结构,另一方面不能
在处理的过程中引入新的噪声和伪影.由于低剂量CT图像后处理效果的好坏直接
影响医生诊断的准确性,国内外很多学者致力于对低剂量CT图像伪影和噪声抑制
方面的研究.最初,Rudin等[3]提出了总变分(TotalVariation,TV)模型,TV去噪
模型能够较好地保护图像边缘,但是该模型仅沿图像边缘的切线方向扩散,导致处
理后的图像产生阶梯效应,后来,ZhuYining等[4]提出一种改进的TV模型用于
低剂量CT降噪,取得了不错的降噪效果;Zamyatin等[5]提出了一种自适应多尺
度总变分低剂量CT图像滤波方法,在对低剂量CT图像伪影抑制的同时,较好地
保护了腹部CT图像中组织结构的边缘;LiuYi等[6]针对稀疏角度投影提出了基
于中值先验约束的TV重建算法.2005年,Buades等[7]首次提出了非局部均值
(Non-LocalMeans,NLM)算法,该算法利用图像具有重复结构性质,在全局范围
内搜索与像素点所在图像块相应的相似块,再对其进行加权平均来实现去噪.
ChenYang等[8]提出了利用结构相似信息的大尺度非局部均值滤波来处理腹部低
剂量CT图像;Ha等[9]提出了通过小图像块数据库与局部相似性匹配相结合的方
法,对低剂量CT图像后处理;此外,ChenYang等[10]提出了基于快速字典学
习方法的腹部肿瘤低剂量CT图像伪影抑制算法.
字典学习和稀疏表示理论在图像处理领域的应用十分广泛,用于图像的去噪、修
复、超分辨率重建[11]等方面.Aharon等[12]最早提出了K-奇异值分解(K-
SingularValueDecomposition,K-SVD)算法,该算法利用逐列更新字典的方式,
多次迭代建立了一个全局最优的过完备字典,通过字典的冗余性对图像进行稀疏表
示;ChenYang等[13]提出了一种基于区别性字典的条形伪影抑制方法,该方法
首先使用小波变换分解低剂量CT图像,然后对水平、垂直和对角方向的高频图
像分别进行对应的区别性字典表达并去除伪影,最后再用传统的字典学习方法去除
残留的噪声,取得了很好的效果.受这种方法启发,本文提出了一种基于字典学习
的伪影抑制算法,首先利用平稳小波变换(StationaryWaveletTransform,SWT)
对低剂量CT图像进行单层分解,并对三个方向的高频图像利用在线字典学习的方
法训练字典,然后利用等效视数(EquivalentNumberofLooks,ENL)对字典进行
分区得到伪影字典和特征字典,并只对特征原子进行稀疏编码,经过小波逆变换
(InverseStationaryWaveletTransform,ISWT)后,再采用双边滤波器(Bilateral
Filter,BF)对处理后的CT图像进行分解并训练高频字典,最后通过等效视数摒弃
伪影字典来去除高频图像残留的伪影和噪声,从而达到抑制条形伪影、改善低剂
量CT图像质量的目的.将本文算法应用于实际的低剂量CT图像,与标准剂量CT
图像相比较,并与TV降噪算法、K-SVD算法和三维块匹配滤波(Block-
Matchingand3-DFiltering,BM3D)算法[14]对比,本文算法的处理结果优于其
他算法.
1字典学习理论
1.1稀疏表示
假设有一个信号y∈RN,基向量为信号在这组基下表示为
(1)
若式(1)中的α只有K个元素是非零值,且K≪N,则认为y是稀疏的.若y为一幅
图像,图像大小为生成的字典由K个向量构成,可以表示为
D={di∈RN│‖di‖=1,1≤i≤K},di即为字典原子.因此,该图像可被表示为其中
α={αi│1≤i≤K}为y在字典D下的分解系数.若K 若K>N,称字典D为过完备字典;若K=N,称字典D为完备字典.当D为过完 备字典时,y在过完备字典下的表示为y=Dα,此时的α不唯一,稀疏表示就是 从α中选取一个最为稀疏的解.通常情况下,利用二次惩罚方程‖y=Dα‖2进行近 似求解.综上所述,可以用下面的式子来表示. (2) 式中:‖α‖0为向量α的l0范数,表示α中的非零元素个数.式(2)中允许y与Dα 之间存在一定的误差ε,但是式(2)中的l0范数最小化问题在求解时是一个NP难 题.对于这种问题的求解方法,可以利用正交匹配追踪算法(Orthogonal MatchingPursuit,OMP)求近似解. 1.2正交匹配追踪算法 OMP算法[15]是在过完备字典中选择较少的列向量,形成一个对观测值的最优近 似表示.基于稀疏度限制L的稀疏表示问题可以描述为 (3) 1.3在线字典学习 给定一系列训练信号得到字典D,使得每一个信号在D下都能够稀疏表示.在线 字典学习方法的具体步骤如下: 1)图像块处理:假设Pi是从一幅图像I中得到的第i个长度为p的图像块,将Pi 表示成向量形式.因此,训练集中第i个图像块可以分别表示为Ii=PiI. 2)初始化训练参数:设定字典在训练阶段的正则化参数为λ,图像块集为 Pn={P1,P2,…,Pn},以Pn为输入信号. 3)计算稀疏系数:由步骤(2)可知,迭代开始时D=D0,用最小角回归迭代方法求 解,可使式(4)的计算值最小. (4) 式中:t表示训练字典的迭代次数,t={1,2,…,T},根据输入的图像块向量Ii更新稀 疏系数θt. 4)求解最优字典:以上一次迭代得到的字典Dt-1与步骤(3)中的稀疏系数相结合, 求解字典Dt为 Dt (5) 为了保证字典中的基向量值在一定的范围内,对求得的D加一个约束条件D∈c, 归一化处理结果为 (6) 5)最后生成字典:达到迭代次数T后,即可获得过完备字典DT. 2本文算法 2.1平稳小波变换 在经典的小波变换算法中,图像经过高通滤波和低通滤波后都要经过下采样,使分 解后的各子带变为原图像大小的一半,但这样容易造成图像边缘的小波系数部分信 息丢失,给重构图像带来不稳定性.而平稳小波变换是对经典小波变换的改进,其 最大的特点是冗余性和平移不变性.本文算法中首先采用平稳小波变换对低剂量 CT图像进行分解,通过平稳小波变换将LDCT图像分成低频和高频两部分,其中 高频又包含了三个部分:水平高频部分,垂直高频部分和对角高频部分.本文算法 中使用哈尔(Haar)小波基进行分解,因其速度快且可以避免Gibbs振荡现象. 2.2基于等效视数的字典分区方法 在对质量退化的低剂量CT图像I进行平稳小波变换(SWT)之后,将其分解成低频 分量Ica和三个高频分量:水平分量Ichd、垂直分量Icvd和对角分量Icdd; 然后把高频部分分别运用在线字典学习方法训练出三个方向上的字典Dchd, Dcvd和Dcdd;图1为构成字典的特征原子及伪影原子,均由水平分量字典随 机抽取得到,相比特征原子图像块中的图像信息,伪影原子图像块中的图像信息变 化更显混乱. 图1构成字典的原子Fig.1Atomsfromdictionary 等效视数是一种衡量均匀区域的光滑性的指标,通过计算原子图像块的等效视数发 现,伪影原子图像块的等效视数较小,特征原子图像块的等效视数则相对较大,所 以本文算法依据各原子图像块的等效视数来完成字典分区.算法中采用的字典分区 方法具体如下:首先将每一原子图像块Pi(i=1,2,…,N)分割为四个小区域和如图1 所示,分别计算每一区域的等效视数,其定义为 (7) 式中:μi表示区域的均值;表示区域的方差.根据对特征原子与伪影原子的特点计 算分析,选择一个合适的等效视数阈值Tt作为字典原子分区的依据十分重要,当 四个小区域的等效视数均小于各自区域的Tt,则将该原子归类至伪影原子字典中, 只要有一个区域的等效视数大于其区域的Tt时,则将此区域对应的该原子归类至 特征原子字典中.各个区域的阈值Tt由对应区域进行系统抽样(Systematic Sampling)计算得到,计算方法如下:首先对小区域计算得到一组ENL,把这组数 据看成一个总体E,再将E中各单位按由小到大的顺序排列,把E分成τ个样本, 样本数量τ的选取与字典中原子的个数有关,具体为 (8) 式中:K为字典中原子的总个数;为图像原子块的大小.然后采用简单随机抽样抽 取第一个样本单元得到k1,再顺序抽取其余的样本单元,直至抽取到第τ个单位 得到kτ.这样就得到了阈值Tt的计算公式 (9) 三个方向的字典分别根据计算等效视数的判别方法分成特征原子字典和伪影原子字 典分区后的组合字典为:和图2为三个方向高频分量的字典分区示意图,其中, 图2(a)依次为水平方向训练所得字典Dchd,特征原子字典和伪影原子字典图 2(b)依次为垂直方向训练所得字典Dcvd,特征原子字典Dcvdf和伪影原子字典 图2(c)依次为对角方向训练所得字典Dcdd,特征原子字典Dcddf和伪影原子 字典 图2三个方向高频分量的字典分区示意图Fig.2Illustrationofthedictionaries forthehighfrequencybandswithdifferentorientations 运用OMP算法,基于之前分区得到的字典从图像中抽取N个图像块Pi (i=1,2,…,N),再稀疏编码每一个图像块Pi,由式(3)可以得到稀疏表示系数向量αi, 本文算法采用基于稀疏度限制的稀疏表示,利用OMP算法重建伪影部分和特征结 构部分,特征结构部分由和重建,即为去除伪影的高频图像块平均重叠像素的像 素值即可得到去除伪影的高频图像的转置图像运用相同方法可以得到和之后基于 未处理的低频分量Ica与处理后的三个高频分量和进行小波逆变换(ISWT),进而 得到质量有较大程度改善的CT图像 2.3残留伪影的抑制 在上述方法得到质量有较大程度改善的图像后,CT图像中还会残留一些伪影和噪 声.图3给出了在小波域基于等效视数的字典分区方法处理结果的对比图.其中, 图3(a)分别为腹部LDCT图像的局部放大结果,图3(b)分别为腹部SDCT图像的 局部放大结果,图3(c)分别为图像的局部放大结果.对比图3中(b1)和(c1),可以 看出图像的结果中还会存在一些斑点噪声和少量的条形伪影,需要对图像进一步抑 制残留噪声. 图3算法各步骤处理结果局部放大图Fig.3Localamplifiedimagesof processingresultsbyeachstepofthealgorithm 此时,对图像运用一个双边滤波器得到的低频部分IL,然后得到的高频部分IH, 即为运用双边滤波器既考虑了邻域中点的几何位置又考虑了密度的分布,因此在 图像的边缘保持方面具有不错的效果[16].双边滤波器是一个非迭代性质的滤波器, 相对于其他的迭代算法滤波器,其处理时间相对较短.然后利用在线字典学习的方 法训练字典得到字典DH,运用等效视数的判别方法对DH进行字典分区,从而摒 弃伪影字典来去除高频图像残留的伪影和噪声,达到进一步抑制条形伪影的目的, 最后把去除伪影的高频部分与未处理的低频部分相加即得最终处理后的图像IENL. 图3(e)分别为图像IENL的局部放大结果,图3(d)分别为经过两层SWT分解后, 利用等效视数的方法对高频部分训练的字典分区,只对特征原子进行稀疏编码,经 小波逆变换后得到的CT图像的局部放大结果,对比图3中(d1)和(c1)可以看出, 经过两层SWT分解后的LDCT图像处理结果相比于图像抑制了大部分的伪影; 但是,对比图3中(e2)和(d2),图像IENL的抑制伪影效果要优于图像图3中(d2) 图像的边缘轮廓变得模糊,所以本文算法采用双边滤波器对图像进行分解并进一步 抑制残留的噪声和伪影. 本文算法的流程示意图见图4,算法的具体步骤如下: 图4本文算法的流程示意图Fig.4Flowschematicofthealgorithm Step1:对低剂量CT图像I进行平稳小波变换,分解成低频分量Ica与三个高频 分量Ichd,Icvd和Icdd; Step2:设定字典训练阶段用到的正则化参数λ和图像块大小q,输入图像的图像 块集Pn,初始字典D0,迭代次数T,利用式(4)进行字典训练,利用式(5)迭代更 新字典; Step3:利用式(7)计算图像块的等效视数,将字典分区成伪影原子字典和特征原 子字典; Step4:运用OMP算法对特征原子进行稀疏编码,由式(3)可得三个高频分量和 Step5:小波逆变换得到质量改善的CT图像 Step6:利用双边滤波器将图像分解成低频IL和高频IH,把字典学习和等效视数 的方法运用于IH,重复Step2至Step4得到 Step7:抑制条形伪影及噪声后的图像为 3实验结果与分析 为了验证本文提出算法的有效性,采用实际的临床CT图像进行实验,CT图像由 一台西门子SOMATOMSensation16排CT得到,图像大小为512×512.其中 LDCT图像由40mAs电流扫描,SDCT图像由160mAs电流扫描,重建算法为 FBP.选取如图5所示的两张LDCT图像进行测试,伪影抑制的结果与SDCT图像 做对比,两组图都用腹窗显示(窗宽350HU,窗位50HU).LDCT图像选用B70f 卷积核,SDCT图像则选用临床上腹部扫描和胸部扫描常用的B30f卷积核.实现 算法的工具为MATLABR2014a,计算机的配置为CPU:IntelCoreTMi7-4771 *************,内存8192MbRAM.本文算法中涉及到7个参数.在线 字典学习方法有4个参数,正规化参数λ取值为0.1,图像块的大小为16×16, 字典训练块数量即为:(512-15)×(512-15)=247009,字典中原子的个数为1 500,迭代的次数为90.图像块的大小取为16×16,一方面有利于字典学习时提 取图像的细节特征,另一方面有利于运用等效视数的方法区分伪影原子和特征原子. 运用分区的子字典稀疏表示时,所用OMP方法的稀疏限制水平参数L取为3.双 边滤波器中有3个参数,一个是滤波器的窗口的大小,通常设置为10×10,另外 两个参数是空间标准差σd和密度标准差σr,在估计了几个可能的值后,发现 σd=6,σr=0.2时能去除低剂量CT图像中的大部分的条形伪影. 图5测试图像Fig.5Testimages 图6(c)~(f)给出了采用TV算法,K-SVD算法,BM3D算法处理结果以及本文算 法对测试图a的结果对比,图6(a)和(b)分别为腹部LDCT图像和腹部SDCT图像. 图7给出了图6中各图对应的局部放大结果.对比图7中(a1)和(b1)可以看出,相 比于SDCT图像,LDCT图像中的伪影比较严重,解剖结构的细节分辨率低;对 比图7中(c1)和(b1)可以看出,TV算法虽然有效地去除了条形伪影,但是由于图 像过度平滑造成细节信息损失;对比图7中(d1)和(b1)可以看出,K-SVD算法去 除了大量的噪声和伪影,但是图像有部分边缘变得模糊;观察图7中(e1)可以看 出,BM3D算法有效抑制了图像中的噪声和伪影,但是对比图7中(b1)的部分细 节发现BM3D算法处理后的图像过度平滑造成了边缘和细节信息的丢失.从对比结 果来看,本文的算法能有效地抑制伪影,在图像的边缘和细节保持方面优于其他算 法,结果图与SDCT图像最为接近. 图6测试图a的各种算法处理后结果图Fig.6Variousalgorithmsprocessed resultimagesoftestimagea 图7中的(a2)~(f2)给出了图6中各图对应的肝脏肿瘤部分局部放大结果,图7 中(a2)中箭头所指为肝脏肿瘤部分.对比图7中(a2)和(b2)可以看出,相比SDCT 图像中的肿瘤部分,LDCT图像难以找到准确的肿瘤部分,噪声影响比较严重; 对比图7中(c2),(d2),(e2)和(f2)可以看出,图7中(f2)与SDCT图像的肿瘤部分 最接近,效果最好. 图7测试图a结果图对应的局部放大结果Fig.7Partialmagnificationofresult imagesofthetestimagea 图8给出了测试图b的各种算法处理结果图,图8(a)~(f)分别是LDCT图像、 SDCT图像、TV算法处理结果、K-SVD算法处理结果、BM3D算法处理结果和 本文算法处理结果图. 图9给出了图8中各图对应的局部放大结果.对比图9(c)和(b),TV算法会由于图 像过度平滑造成细节信息损失;对比图9(d)和(b)可以看出K-SVD算法去除了大 量的噪声和伪影,但是图像还是存在部分边缘模糊的情况;由图9(e)可以看出, BM3D算法有效抑制了图像中的噪声和伪影,但是与图9(d)对比会发现BM3D算 法处理后的图像细节部分比较好.而本文的算法在抑制噪声和伪影的同时有效地保 持了组织结构分辨度,展现出了真实SDCT图像的纹理部分.处理后的测试图b中 组织部分保留的细节纹理较多且清晰,因此从视觉效果来看,本文算法的处理结果 相比其他算法最好. 图8测试图b的各种算法处理后结果图Fig.8Variousalgorithmsprocessed resultimagesoftestimageb 图9测试图b结果图对应的局部放大结果Fig.9Partialmagnificationofresult imagesofthetestimageb 为了对算法结果进行客观、定量的评价,本文采用较常用的峰值信噪比、均方根 误差和结构相似性来评价处理后CT图像的质量.这些参数的定义如下: 1)峰值信噪比(PeakSignal-to-NoiseRatio,PSNR) 式中:M×N表示图像的大小;v是SDCT图像;u是伪影抑制后的图像.PSNR 是图像信噪比变化情况的统计平均,其值越大,图像失真越少,这里取 Peak=255. 2)均方根误差(RootMeanSquareError,RMSE) (12) 均方根误差是用来衡量u与u0之间的偏差,其值越小,图像u失真越小. 3)结构相似性(StructuralSimilarityIndexMeasurement,SSIM) SSIM(v,u)=[L(v,u)]α×[C(v,u)]β× [S(v,u)]γ, (13) (14) (15) (16) 式中:α>0,β>0和γ>0,分别调整亮度L、对比度C和结构信息S在SSIM中 所占的权重,uv,uu分别表示图像v和u的均值;分别表示图像v和u的方差; σvu表示图像v和u的协方差;C1,C2和C3是三个常量. 表1和表2分别给出了不同算法对测试图a和测试图b处理后的质量评估参数, 表1和表2由图10分别截取SDCT图像的感兴趣区域(RegionofInterest,ROI) 计算得到,每张测试图像分别截取两个感兴趣区域. 表1测试图a的质量评估参数Tab.1Qualityevaluationparametersofthetest imageaROISSIMRMSEPSNR/dB区域1区域2区域1区域2区域1区域 2LDCT0.98080.981727.646825.836749.130146.9551TV0.99070.989523.8930 21.026050.595350.7447KSVD0.99120.990221.878519.327152.009151.4780B M3D0.99300.993320.129618.489352.123152.8614本文算法 0.99390.993618.871817.424752.683653.3765 表2测试图b的质量评估参数Tab.2Qualityevaluationparametersofthe testimagebROISSIMRMSEPSNR/dB区域1区域2区域1区域2区域1区域 2LDCT0.97250.960818.764523.515552.733144.4269TV0.97770.962217.3073 20.043653.435245.7258KSVD0.97870.976615.369314.369654.404246.9971B M3D0.98200.980513.110212.652155.057847.5616本文算法 0.99790.98568.90399.136058.208248.9112 由表1和表2分析可知:本文提出算法与其他算法相比,结构相似性SSIM和峰 值信噪比PSNR都较大,均方根误差RMSE较小.说明本算法处理后的图像质量较 好,能够有效地抑制伪影,并保留图像的边缘等重要细节特征.因此,在视觉效果 和定量评价方面,所得结果都表明本文提出的算法对低剂量CT图像的伪影抑制是 有效的. 表3给出了不同算法对测试图a和测试图b处理后的运行时间,可以看出,本文 所提算法的计算速度优于K-SVD算法,但是相比于BM3D算法,运行时间还是 相对较长,对算法加速方面而言,可作为下一步研究的方向. 表3各种算法运行时间Tab.3Therunningtimeofvarious algorithmsTime/sTVKSVDBM3D本文算法测试图a10.8487.688.7376.80测试 图b10.9088.238.6177.22 图10选取SDCT图像的感兴趣区域Fig.10Selecttheregionofinterestofthe SDCTimage 4结论 本文提出了一种基于字典学习与等效视数的伪影抑制算法,利用FBP算法获得低 剂量CT重建图像,再对CT图像进行降噪处理.本文算法在处理低剂量CT图像的 过程中,每一步骤得到的高频分量都运用字典学习方法训练得到字典,再运用等效 视数判别法对字典进行分区得到伪影字典和特征字典,并只对特征原子进行稀疏编 码,从而达到去除条形伪影的目的.实验结果表明,本文算法可以在抑制条形伪影 的同时,保留较多的细节信息,并且更加接近原始SDCT图像.从视觉效果和质量 评价可以看出,本文算法的伪影抑制效果优于TV算法、K-SVD算法和BM3D算 法.但是,本文所提算法中一些参数的选择,仍需凭借经验调整,这也是后续研究 中需要解决的一个问题. 参考文献: 【相关文献】 [1]MacRedmondR,LoganP,LeeM,ingforlungcancerusinglowdoseCT scanning[J].Thorax,2004,59(3):237-241. [2]Smith-BindmanR,LipsonJ,MarcusR,iondoseassociatedwithcommon computedtomographyexaminationsandtheassociatedlifetimeattributableriskof cancer[J].ArchivesofInternalMedicine,2009,169(22):2078-2086. [3]RudinLI,OsherS,eartotalvariationbasednoiseremoval algorithms[J].PhysicaD:NonlinearPhenomena,1992,60(1-4):259-268. [4]ZhuYining,ZhaoMengliu,ZhaoYunsong,eductionwithlowdoseCTdata basedonamodifiedROFmodel[J].OpticsExpress,2012,20(16):17987-18004. [5]ZamyatinA,KatsevichG,KrylovR,vemulti-scaletotalvariation minimizationfilterforlowdoseCTimaging[C]//ational SocietyforOpticsandPhotonics,2014:903426-903427. [6]LiuYi,ShangguanHong,ZhangQuan,priorconstrainedTValgorithmfor sparseviewlow-doseCTreconstruction[J].ComputersinBiology&Medicine,2015,(60): 117-131. [7]BuadesA,CollB,-localalgorithmforimagedenoising[J].IEEE ComputerSociety,2005:60-65. [8]ChenYang,ChenWufan,YinXindao,inglow-doseabdominalCTimages byweightedintensityaveragingoverlarge-scaleneighborhoods[J].EuropeanJournalof Radiology,2011,80(2):e42-e49. [9]HaS,eCTimagerestorationusingadatabaseofimagepatches[J]. PhysicsinMedicineandBiology,2015,60(2):869-882. [10]ChenYang,YinXindao,ShuHuazhong,ingabdomentumorlow-doseCT imagesusingafastdictionarylearningbasedprocessing[J].PhysicsinMedicineand Biology,2013,58(16):5803-5820. [11]DongWeisheng,ZhangLei,ShiGuangming,eblurringandsuper- resolutionbyadaptivesparsedomainselectionandadaptiveregularization[J].IEEE TransactionsonImageProcessing,2011,20(7):1838-1857. [12]AharonM,EladM,-SVD:analgorithmfordesigning overcompletedictionariesforsparserepresentation[J].IEEETransactionsonSignal Processing,2006,54(11):4311-4322. [13]ChenYang,ShiLuyao,FengQianjing,ctsuppresseddictionarylearningfor low-doseCTimageprocessing[J].IEEETransMedImaging,2014,33(12):2271-2292. [14]DabovK,FoiA,KatkovnikV,enoisingbysparse3-Dtransform-domain collaborativefiltering[J].IEEETransactionsonImageProcessing,2007,16(8):2080-2095. [15]PatiYC,RezaiifarR,onalmatchingpursuit:Recursive functionapproximationwithapplicationstowaveletdecomposition[C]//1993Conference RecordofTheTwenty-SeventhAsilomarConferenceonIEEE,1993:40-44. [16]TomasiC,ralfilteringforgrayandcolorimages[C]//Proceedings ofthe1998IEEEInternationalConferenceonComputerVision,1998:839-846.