网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

求解线性方程组稀疏解的稀疏贪婪随机Kaczmarz算法  PDF

  • 王泽
  • 殷俊锋
同济大学 数学科学学院,上海 200092

中图分类号: O241.6

最近更新:2021-11-25

DOI:10.11908/j.issn.0253-374x.21212

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

求解线性方程组的稀疏解在图像重构、信号处理和机器学习等领域中具有广泛的应用,通过引入l1-范数正则化,可以转化为求解一个约束优化问题。基于一种选择系数矩阵工作行的概率准则,提出了稀疏贪婪随机Kaczmarz算法,并给出了有噪声干扰和无噪声干扰情况下该算法的收敛性分析。理论表明本文算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。数值实验验证了本文算法的有效性。

求解线性方程组Ax=b的稀疏解在图像重构、信号处理和机器学习中具有广泛应

1-4。通过引入l1-范数,求解线性方程组的稀疏解可以转化为求解式(1)正则化最小二乘问题:

minxRnfx=λx1+12x22s.t.  Ax=b (1)

求解该问题常见的算法包括基追踪方法、Bregman方法、共轭梯度方法

5-7

自Strohmer和Vershynin

8证明了随机Kaczmarz算法具有线性收敛率以来,许多专家学者对随机Kaczmarz算法进行了深入的研9-11。Kaczmarz算法求解的是最小二乘解,通常是稠密的,为了求解线性方程组的稀疏解,文献[12]提出稀疏Kaczmarz算法,该算法在原有的Kaczmarz算法基础之上引入了软阈值函数,解决了最小二乘解稠密性的问题。

在线性方程组相容的情况下,文献[

13]证明了稀疏Kaczmarz算法迭代收敛到问题(1)的唯一解。令右端噪声项bδ满足b-bδ2δ时,线性方程组可能不相容,文献[14-15]证明了随机Kaczmarz算法的迭代值依期望收敛,并且与无噪声情况下有相同的收缩因子。文献[16]在稀疏Kaczmarz算法基础之上,提出了随机稀疏Kaczmarz算法,并在有噪声干扰和无噪声干扰的情况下给出了随机稀疏Kaczmarz算法的收敛性分析。当系数矩阵的行范数相差较小时,随机Kaczmarz算法将等概率选取A的行,此时随机Kaczmarz算法的收敛速率较慢,因此Bai和Wu17结合贪婪和随机思想,提出一种新的概率准则来选取工作行,形成贪婪随机Kaczmarz算法。更多贪婪随机Kaczmarz算法的研究参见文献[18-21]。

在稀疏随机Kaczmarz算法的基础之

21,受贪婪算法的启发,本文提出稀疏贪婪随机Kaczmarz算法,给出稀疏贪婪随机Kaczmarz算法在有噪声干扰和无噪声干扰情况下的收敛性分析,并以大量的数值实验验证本文算法的计算效率。

符号标记如下,定义x̂为线性方程组Ax=b的解,其中ARm×nbRmai表示系数矩阵A的第i行。支持集S=supp(x̂)=j{1,,n}x̂j0是列向量x̂中非零元的下标所构成的集合,ASA的子矩阵,由支持集S中的指标选取系数矩阵A的列构成,aiS表示的是AS的第i行,xS是在支持集S限制下的列向量;定义σ̂min(A)=minσminAJJ{1,,n},AJ0为子矩阵AJ的最小奇异值,其中AJ为指标集JA的列构成的子矩阵,令κ˜=AFσ̂min(A)为哈达玛积(Hadamard product);k̂为对支持集大小的估计值;wj为稀疏随机Kaczmarz算法第j次迭代的权重值,wjRm×1

1 稀疏贪婪随机Kaczmarz算法

Ax=b的解x稀疏时,文献[

21]提出了稀疏随机Kaczmarz算法,加快了算法的收敛速率(算法1)。

算法1   稀疏随机Kaczmarz算

21。①输入ARm×nbRm,最大迭代数M和估计的支持集的大小k̂。②输出xj③初始化S=1,,nx0=0j=0④当jM时,置j=j+1。⑤选择行向量ai,i{1,,n},每一行对应的概率为ai22AF2。⑥确定估计的支持集SS=suppxj-1max{k̂,n-j+1}⑦生成权重值wjwj(l)=1lS1jlSc。⑧xj=xj-1+bi-wjai, xj-1wjai22wjaiT。⑨转步骤④。

稀疏随机Kaczmarz算法可以用比随机Kaczmarz算法更少的迭代步数找到最小二乘解。由于支持集和稀疏度都是未知的,因此稀疏随机Kaczmarz算法从支持集中所有元素的稀疏度的初始估计开始,然后在每一次迭代中,稀疏随机Kaczmarz算法通过去掉向量x中数量级最小的元素下标来更新估计的支持集。该算法第j次迭代的加权准则为

wj(l)=1lS1jlSc

其中,j为迭代步数。当j时,wjaiaiS,因此原线性方程组退化成

b=Ax=ASxS

由于κASκ(A),因此稀疏随机Kaczmarz算法的收敛因子小于随机Kaczmarz算法。但是由于最小二乘解总是稠密的,该算法在求解超定线性方程组时,虽然在稀疏解零元对应位置上的元素很小,但仍然不等于零,因此在文献中提出稀疏Kaczmarz算法,文献[

16]在稀疏Kaczmarz算法的基础上,提出了随机稀疏Kaczmarz算法(算法2)。

算法2   随机稀疏Kaczmarz算

16。①输入ARm×nbRm,最大迭代数M。②输出xk。③初始化:x0=x0*=0。④置k=0,当k M-1时。⑤选择行向量aik,ik{1,,n},每一行对应的概率为aik22AF2。⑥xk+1*=xk*-aik,xk-bikaik22aik。⑦xk+1=Sλxk+1*。⑧转步骤④。

算法2中λ>0Sλ(x)=max{|x|-λ,0}sign(x)。结合稀疏随机Kaczmarz算法和随机稀疏Kaczmarz算法的思想,受贪婪算法的启发,本文提出稀疏贪婪随机Kaczmarz算法,在保证算法能够计算出稀疏解的同时,通过贪婪的概率准则来选择工作行从而达到加快算法收敛速度的目的。算法3给出稀疏贪婪随机Kaczmarz算法。

算法3   稀疏贪婪随机Kaczmarz算法。①输入ARm×nbRm,最大迭代数M和估计的支持集的大小k̂。②输出xk。③初始化S=1,,nx0=x0*=0k=0时,当k M-1时。⑤计算

 ϵk=121b-Axk22max1ikmbik-aikxk2aik22+1AF2 (2)

⑥决定正整数指标集

𝒰k=ik| bik-aikxk2ϵkb-Axk22aik22 (3)

⑦计算向量r˜k的第ir˜k(i)

r˜k(i)=b(i)-A(i)xki𝒰k0  

⑧以概率准则p(rrow=ik)rk(i)2rk22选择ik𝒰k。⑨确定估计的支持集S,如下:S=suppxkmax{k̂,n-k}。⑩生成权重值wk+1

wk+1l=1lS1k+1lSc

⑪计算

xk+1*=xk*+bik-wk+1aik,xkwk+1aik22wk+1aikT

⑫计算 xk+1=Sλxk+1*。⑬转步骤④。

2 稀疏贪婪随机Kaczmarz算法的收敛性分析

为了证明求解正则基追踪问题(1)稀疏贪婪随机Kaczmarz算法依期望线性收敛,先回顾一些基本的概念和性

22

f:RnR是凸函数,用f(x)表示fxRn的次微分

f(x)=x*Rnf(y)f(x)+x*,y-xyRn

其中,f(x)是一个非空紧凸集。

定义1   凸函数f:RnR,如果存在α>0,使得对任意的x,yRnx*f(x),有

f(y)f(x)+x*,y-x+α2y-x22

那么f是强凸的,当和α的具体值相关时,则称fα-强凸的。

定义2  

22     如果f:RnRα-强凸,那么它的共轭函数f*x*:=supxRnx*,x-f(x)可微且有1/α-Lipschitz连续梯度,例如

f*x*-f*y*21αx*-y*2,x*,y*Rn

式(4)不等式成立:

f*y*f*x*+f*x*,y*-x*+12αy*-x*22x*,y*Rn (4)

定义3   令f:RnR是强凸函数,那么x,yRn之间的Bregman距离Dfx*(x,y)f和一个次梯度x*f(x)定义

Dfx*(x,y):=f(y)-f(x)-x*,y-x=f*x*-x*,y+f(y)

如果f是可微的,那么有f(x)={f(x)},因为Df(x,y)=f(y)-f(x)-f(y),y-x,所以可以简化来写Df(x,y)=Dfx*(x,y)

下面的引理都遵循强凸性的假

13,给出了随机方法收敛性分析所需的Bregman距离的关键性质。

引理1  

13     f:RnRα强凸函数,对任意的x,yRnx*f(x)y*f(y)

α2x-y22Dfx*(x,y)x*-y*,x-yx*-y*2x-y2

因此

Dfx*(x,y)=0  x=y

对于序列xkxk*f(xk)Dfxk*xk,y的有界性意味着xkxk*有界。如果f有一个LLipschitz连续梯度,那么也有Df(x,y)L2x-y22

定义4   令f:RnR是强凸函数,且CRn是一个非空闭凸集,则xC上的Bregman投影是关于fx*f(x)满足下式的唯一点ΠCx*(x)C

Dfx*x,ΠCx*(x)=minyCDfx*(x,y)=:distfx*(x,C)2

对于可微的f,可以简化为ΠC(x)distf(x,C)

引理2  

13     f:RnR是强凸函数,xC上的Bregman投影点x̂C是与fx*f(x)相关,当且仅当存在一个x̂*f(x̂)满足式(5)式(6)

x̂*-x*,y-x̂0,yC (5)
Dfx̂*(x̂,y)Dfx*(x,y)-Dfx*(x,x̂)    yC (6)

可以叫这样的点x̂*x̂=ΠCx*(x)的可允次梯度。

引理3表明,Bregman投影到仿射子空间和半空间可以通过求解可微共轭函数f*的无约束优化问题来计算。

引理3  

13     f:RnRα-强凸函数,ARm×nbRmuRnβR

(1)xRn到仿射空间L(A,b):={xRn|Ax=b}的Bregman投影是

x̂:=ΠL(A,b)x*(x)=f*x*-ATŵ

其中ŵRm是下式的解:

minwRmf*x*-ATw+w,b

更重要的是,根据引理2,x̂*:=x*-ATŵx̂的可允次梯度。如果A行满秩,那么对任意的yL(A,b)

Dfz*(z,y)Dfx*(x,y)-α2AAT-12(Ax-b)22

(2)xRn到超平面H(u,β):={xRnu,x=β满足u0的Bregman投影是

x̂:=ΠH(u,β)x*(x)=f*x*-t̂u

其中 t̂R是下式的解:

mintRf*x*-tu+tβ

更重要的是x̂*:=x*-t̂ux̂的可允次梯度,对任意的yH(u,β)

Dfx̂*(x̂,y)Dfx*(x,y)-α2(u,x-β)2u22

如果x不是在半空间H(u,β):=xRnu,xβ,那么有必要满足t̂>0ΠH(u,β)x*(x)=x̂且上面的不等式对任意的yH(u,β)都成立。

引理4

16对于任意的xRn满足f(x)AT和任意的x*=ATyf(x)AT,有

Dfx*(x,x̂)1σ̂min2(A)|x̂|min+2λ|x̂|minAx-b22

定理1  (无噪声情况) 令κ˜=AFσ̂min(A)ϵk=121b-Axk22max1ikmbik-aikxk2aik22+1AF2。稀疏贪婪随机Kaczmarz算法所产生的迭代序列xk依期望线性收敛到唯一解x̂,其收缩因子为

q=1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ (7)

从而

EDfxk+1*xk+1,x̂qEDfxk*xk,x̂

Exk-x̂2qk22λx̂1+x̂22

证明   根据引理3的(2)中的估计,有式(8)成立:

Dfxk+1*xk+1,x̂Dfxk*xk,x̂-12aik,xk-bik2aik22 (8)

式(8)两边同时取条件期望有

EDfxk+1*xk+1,x̂i0,,ik-1Dfxk*xk,x̂-ik𝒰kbik-aikxk2i𝒰kbi-aixk212aik,xk-bik2aik22=Dfxk*xk,x̂-ik𝒰kbik-aikxk2i𝒰kbi-aixk212|aik(xk-x̂)|2aik22 (9)

根据式(2)式(3)的定义,有不等式(10)成立:

bik-aikxk2ϵkb-Axk22aik22,ik𝒰k (10)

式(10)代入到式(9)中,从而有

EDfxk+1*xk+1,x̂i0,,ik-1Dfxk*xk,x̂-ik𝒰kbik-aikxk2i𝒰kbi-aixk212|aik(xk-x̂)|2aik22Dfxk*xk,x̂-12ik𝒰k|aik(xk-x̂)|2i𝒰kbi-aixk2ϵkb-Axk22=Dfxk*xk,x̂-12ik𝒰k|bik-aikxk|2i𝒰kbi-aixk2ϵkb-Axk22=Dfxk*xk,x̂-12ϵkb-Axk22 (11)

式(11)的推导,可以得出

EDfxk+1*xk+1,x̂i0,,ik-1Dfxk*xk,x̂-12ϵkb-Axk22

根据引理4有

EDfxk+1*xk+1,x̂i0,,ik-1Dfxk*xk,x̂-12ϵkσ˜min2|x̂|min|x̂|min+2λDfxk*xk,x̂1-12ϵkσ˜min2|x̂|min|x̂|min+2λDfxk*xk,x̂ (12)

由于κ˜=AFσ˜min(A),从而

EDfxk+1*xk+1,x̂i0,,ik-1(1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ)Dfxk*xk,x̂ (13)

q=1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ,则

EDfxk+1*xk+1,x̂qEDfxk*xk,x̂

根据引理1,令α=1可得

Exk-x̂2qk22λx̂1+x̂22

证毕。

定理2   (有噪声情况) 已知右段噪声项bδRm满足b-bδ2δ。如果稀疏贪婪随机Kaczmarz算法的迭代值xkbδ替代b来计算,那么有噪声干扰和无噪声干扰有相同的收缩因子

q=1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ

Exk-x̂2qk22λx̂1+x̂22+2|x̂|min+4λϵk|x̂|minδAFσ˜min(A)

证明   令

xkδ:=x̂+bikδ-bikaik22aikHaik,bikδ

式(8)相类似有

Dfxk+1*xk+1,xkδDfxk*xk,xkδ-12aik,xk-bikδ2aik22 (14)

式(14)进行简单的变换等价于式(15)

Dfxk+1*xk+1,x̂Dfxk*xk,x̂-12aik,xk-bikδ2aik22+xk+1*-xk*,xkδ-x̂ (15)

在稀疏贪婪随机Kaczmarz算法中有 xk+1*-xk*=-aik,xk-bikδaik2aik 因此

xk+1*-xk*,xkδ-x̂=bikδ-bikaik22xk+1*-xk*,aik=bikδ-bik2aik22-bikδ-bikaik,xk-bikaik22

-12aik,xk-bikδ2aik22=-12aik,xk-bik2aik22+bikδ-bikaik,xk-bikaik22-12bikδ-bik2aik22

所以

Dfxk+1*xk+1,x̂Dfxk*xk,x̂-12aik,xk-bik2aik22+12bikδ-bik2aik22

类似于无噪声情况的证明方法可以得到

EDfxk+1*xk+1,x̂qEDfxk*xk,x̂+12bδ-b22AF2

通过归纳得出

EDfxk*xk,x̂qkλx̂1+12x̂22+11-q12bδ-b22AF2

由引理1,令α=1,且u+vu+v,有

Exk-x̂2qk22λx̂1+x̂22+11-qbδ-b22AF2 (16)

q=1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ代入式(16)中就可以得到

Exk-x̂2qk22λx̂1+x̂22+2|x̂|min+4λϵk|x̂|minδAFσ˜min(A)

证毕。

注意到稀疏贪婪随机Kaczmarz算法的收缩因子为

q=1-1κ˜2ϵkAF22|x̂|min|x̂|min+2λ 

文献[

16]定理3.2中随机稀疏Kaczmarz算法的收缩因子为

q˜=1-1κ˜212|x̂|min|x̂|min+2λ 

max1ikmbik-aikxk2aik22ik=1maik22AF2bik-aikxk2aik22=b-Axk22AF2

从而ϵkAF21,因此

qq˜

由此可以得出稀疏贪婪随机Kaczmarz算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。一般而言,收缩因子越小,收敛速度越快,因此理论分析表明稀疏贪婪随机Kaczmarz算法收敛速度会比原有的随机稀疏Kaczmarz算法的收敛速度更快。

3 数值实验

通过随机生成的高斯矩阵和矩阵市场中的矩阵2个数值实验算例来比较稀疏贪婪随机Kaczmarz(SGRK)算法、随机稀疏Kaczmarz(RaSK)算法和稀疏随机Kaczmarz(SRK)算法的收敛速度。为了能够使三者收敛到相同解上进行比较,在本次数值实验中,在稀疏随机Kaczmarz算法最后一步加上了软阈值函数Sλ(x)参与迭代以保证求得稀疏解。对相同参数的同一个线性方程组Ax=b做了20次试验,得到迭代步数(IT)和CPU计算时间的平均值。解的相对误差(RSE)定义为

rRSE=xk-x̂22x̂22.

例1   利用Matlab软件中的randn函数随机生成系数矩阵Axn×1,其中有k×n个非零元,之后利用b=A×x得到相容线性方程组,初始向量x0=0。取k˜=2×k,通过k来设置解的稀疏度,其中k˜是对稀疏度的初始估计值。

当解稀疏度为0.2、0.4、0.6以及0.8时,表1表2分别给出了系数矩阵A的维数为1 000×1504 000×300时的SGRK算法、RaSK算法和SRK算法的迭代步数和计算时间。

表1 m = 1 000、n = 150时SGRK、RaSK 和 SRK 的迭代步数和计算时间
Tab. 1 Iteration steps and computation time of SGRK, RaSK and SRK(m = 1 000、n = 150)
稀疏度SGRKRaSKSRK
迭代步数计算时间迭代步数计算时间迭代步数计算时间
0.2 n 158.80 0.014 6 2 496.50 0.053 0 1 082.10 0.038 1
0.4 n 273.35 0.023 5 2 491.20 0.053 3 1 972.00 0.064 9
0.6 n 360.65 0.026 3 2 552.00 0.055 2 2 559.40 0.082 7
0.8 n 363.05 0.025 9 2 597.50 0.054 7 2 557.30 0.080 4
表 2 m = 4 000、n = 300时SGRK、RaSK 和 SRK 的迭代步数和计算时间
Tab. 2 Iteration steps and computation time of SGRK, RaSK and SRK(m = 4 000、n = 300)
稀疏度SGRKRaSKSRK
迭代步数计算时间迭代步数计算时间迭代步数计算时间
0.2 n 259.95 0.094 0 4 224.40 0.226 4 2 057.00 0.152 6
0.4 n 418.45 0.146 8 4 302.50 0.229 9 3 736.00 0.306 7
0.6 n 522.90 0.188 2 4 344.60 0.245 1 4 372.70 0.330 1
0.8 n 523.30 0.190 9 4 435.90 0.237 3 4 442.40 0.321 0

当稀疏度为 0.2 和 0.8 时,图1图2分别给出系数矩阵A的维数为1 000 × 150和4 000 × 300时3种算法近似解的相对误差随迭代步数变化的曲线。

图1 当矩阵A的维数为1 000 × 150时SGRK、RaSK和SRK算法的收敛曲线

Fig. 1 Convergence curves of SGRK, RaSK and SRK methods for Example 1 at a matrix A of 1 000 × 150

图2 当矩阵A的维数为4 000 × 300时SGRK、RaSK和SRK算法的收敛曲线

Fig. 2 Convergence curves of SGRK, RaSK and SRK methods for Example 1 at a matrix A of 4 000 × 300

通过表1表2中的实验数据以及图1图2中的变化曲线可以看出,随着稀疏解非零元个数的不断增加,SRK算法的收敛曲线不断向RaSK算法的收敛曲线靠拢,这是因为SRK算法在对应零元位置上乘以权重,加速减小零元位置上的元素,因此在零元较多的情况下,SRK算法的收敛速度更快。但是,由于SRK算法的计算过程较为复杂,因此在计算时间上一开始低于RaSK算法,后来在迭代步数不明显占优的情况下,计算时间要多于RaSK算法。SGRK算法在2种算法的基础之上,每次以贪婪的概率准则随机选取行指标进行迭代,因此SGRK算法的计算时间和迭代步数都要优于其他2种算法。

例2   选取了矩阵市场中的一些矩阵进行数值实验。为了得到超定的系数矩阵,将所有的欠定矩阵取转置之后再做数值实验,取稀疏度估计为 k̂ = 2k,稀疏度k=0.2 n表3列出的是测试矩阵的相关信息。

表3 矩阵信息
Tab. 3 Matrix information for Example 2
矩阵名称阶数稠密度/%条件数
WorldCities 315×100 23.87 100 66.00
bibd_13_6 78×1 716 19.23 78 6.27

Crew1

Trec8

135 × 6 469

23×84

5.38

28.42

135

23

18.2

26.89

对于测试的矩阵,表4给出了SGRK算法、RaSK算法和SRK算法的迭代步数和运行时间。

表4 SGRK、RaSK 和 SRK 的迭代步数和计算时间
Tab. 4 Iteration steps and computation time of SGRK, RaSK and SRK
矩阵名称SGRKRaSKSRK
迭代步数计算时间迭代步数计算时间迭代步数计算时间
bibd_13_6 134.40 0.015 0 1 681.80 0.078 9 753.15 0.039 4
Trec8 53.85 0.002 4 10 697.00 0.217 8 580.80 0.015 1
crew1 433.35 0.118 0 13 222.00 1.468 4 6 050.30 0.747 1
WorldCities 482.30 0.032 1 19 706.00 0.654 5 2 909.10 0.116 6

图3对应于表4,给出了3种算法近似解的相对误差随着迭代步数的变化曲线。通过对比可以发现,在无噪声干扰的情况下,SGRK算法的迭代步数和CPU运行时间都优于原来的RaSK算法和SRK 算法。

图3 SGRK、RaSK 和 SRK 算法在稀疏度 k = 0.2 n时的收敛曲线

Fig. 3 Convergence curves of SGRK, RaSK and SRK methods convergence curve for Examples 2 at a sparsity k = 0.2 n

图4图5描述SGRK算法、SRK算法和RaSK算法在有噪声干扰的系统中的一些数值实验结果。用Matlab软件中的randn随机生成高斯矩阵和范数为0.02的独立高斯噪声进行数值实验。

图4 SGRK、RaSK 和 SRK 算法在稀疏度k = 0.2 n时误差阈值和实际误差比较

Fig. 4 Comparison of error threshold and actual error of SGRK, RaSK and SRK methods at a sparsity k = 0.2 n

图5 SGRK、RaSK 和 SRK 算法在稀疏度k = 0.6 n时误差阈值和实际误差比较

Fig. 5 Comparison of error threshold and actual error of SGRK, RaSK and SRK methods at a sparsity k = 0.6 n

图4图5中水平的实线是SGRK算法的相对误差阈值,水平的虚线是RaSK算法的相对误差阈值,图4是在有噪声干扰的情况下,解的稀疏度为0.2时3种算法的近似解的相对误差随迭代步数的变化曲线。其中图4a描述系数矩阵A的维数为1 000 × 150时的收敛情况,图4b描述的是系数矩阵A的维数为4 000×300时的收敛情况。

图5是在有噪声干扰的情况下,解的稀疏度为0.6时3种算法的近似解的相对误差随迭代步数的变化曲线。其中图5a和图5b分别画出的是系数矩阵A的维数为1 000 × 150和4 000×300时3种算法的收敛曲线。

图4图5可以看出,在有噪声干扰的情况下,SGRK算法优于其他2种算法最先达到稳定阈值。另外,在图4图5中分别用水平的实线和虚线画出了SGRK算法的相对误差阈值和RaSK算法的相对误差阈值,通过数值实验表明,由定理2中 SGRK算法推导出来的阈值更接近实际情况。

4 结论

在随机稀疏Kaczmarz算法和稀疏随机Kaczmarz算法的基础上,受贪婪算法的启发,提出稀疏贪婪随机Kaczmarz算法,给出了新算法的收敛性分析,且在有噪声干扰和无噪声干扰的情况下,通过理论证明了新算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。数值实验表明所提出的新算法在迭代步数和计算时间上均优于传统的随机稀疏Kaczmarz算法。

作者贡献声明

王 泽:算法设计者和算法研究的执行人,构造新的算法,给出收敛性证明,完成数值实验和数据分析、论文初稿的写作。

殷俊锋:研究的构思者及负责人,指导实验设计,数据分析,论文写作与修改。

参考文献

1

TSAIG YDONOHO D L. Extensions of compressed sensing [J]. Signal Processing2005863):549. [百度学术

2

CANDES EROMBERG JTAO T. Stable signal recovery from incomplete and inaccurate measurements [J]. Communications on Pure and Applied Mathematics2006598):1207. [百度学术

3

ELAD M. Sparse and redundant representations: From theory to applications in signal and image processing [M]. BerlinSpringer2010. [百度学术

4

BYRD R HCHIN G MWU Yet al. Sample size selection in optimization models for machine learning [J]. Mathmatical Programming20121341):127. [百度学术

5

CHEN S SDONOHO D LSAUNDERS M A. Atomic decomposition by basis pursuit [J]. SIAM Review2001431): 129. [百度学术

6

YIN WOSHER SGOLDFARB Det al. Bregman iterative algorithms for l1-minimization with applications to compressed sensing [J]. SIAM Journal on Imaging Sciences200811): 143. [百度学术

7

SCHÖPFER F. Linear convergence of descent methods for the unconstrained minimization of restricted strongly convex functions [J]. SIAM Journal on Optimization2016263): 1883. [百度学术

8

STROHMER TVERSHYNIN R. A randomized Kaczmarz algorithm with exponential convergence [J]. Journal of Fourier Analysis and Applications2009152): 262. [百度学术

9

NEEDELL DTROPP J A. Paved with good intensions: Analysis of a randomized block Kaczmarz method [J]. Linear Algebra and its Applications20144411): 199. [百度学术

10

AGASKAR AWANG CLU Y M. Randomized Kaczmarz algorithms: Exact MSE analysis and optimal sampling probabilities [C]// 2014 IEEE Global Conference on Signal and Information Processing (Global SIP). [s.l.]: IEEE2015389-393. [百度学术

11

LIU JWRIGHT S. An accelerated randomized Kaczmarz algorithm [J]. Mathematics of Computation201685297): 153. [百度学术

12

LORENZ D ASCHÖPFER FWENGER S. A sparse Kaczmarz solver and a linearized Bregman method for online compressed sensing [C]//2014 IEEE International Conference on Image Processing (ICIP). [s.l.]:IEEE20151347-1351. [百度学术

13

LORENZ D ASCHÖPFER FWENGER S. The linearized Bregman method via split feasibility problems: Analysis and generalizations [J]. SIAM Journal on Imaging Sciences201472):1237. [百度学术

14

ZOUZIAS AFRERIS N M. Randomized extended Kaczmarz for solving least squares[J]. SIAM Journal on Matrix Analysis and Applications2013342): 773. [百度学术

15

NEEDELL D. Randomized Kaczmarz solver for noisy linear system [J]. BIT Numerical Mathematics2010502): 395. [百度学术

16

SCHÖPFER FLORENZ D A. Linear convergence of the randomized sparse Kaczmarz method [J]. Mathematical Programming20191731/2): 509. [百度学术

17

BAI Z ZWU W T. On greedy randomized Kaczmarz method for solving large sparse linear systems [J]. SIAM Journal on Scientific Computing201840A592. [百度学术

18

BAI Z ZWU W T. On relaxed greedy randomized Kaczmarz methods for solving large sparse linear systems [J]. Applied Mathematics Letters20188321. [百度学术

19

杜亦疏殷俊锋张科. 求解大型稀疏线性方程组的贪婪距离随机Kaczmarz算法[J]. 同济大学学报(自然科学版)2020488): 1224. DOI: 10.11908/j. issn. 0253-374x. 20041. [百度学术

DU YishuYIN JunfengZHANG Ke. Greedy randomized-distance Kaczmarz method for solving large sparse linear systems [J]. Journal of Tongji University (Natural Science)2020488): 1224. DOI: 10.11908/j. issn. 0253-374x. 20041. [百度学术

20

荆燕飞李彩霞胡少亮. 求解大型稀疏线性系统的贪婪双子空间随机Kaczmarz方法 [J]. 同济大学学报(自然科学版)20214910): 1473. DOI: 10.11908/j. issn. 0253-374x. 21054. [百度学术

JING YanfeiLI CaixiaHU Shaoliang. A greedy two-subspace randomized Kaczmarz method for solving large sparse linear systems [J]. Journal of Tongji University (Natural Science)20214910): 1473. DOI: 10.11908/j. issn. 0253-374x. 21054. [百度学术

21

MANSOUR HYILMAZ O. A fast randomized Kaczmarz algorithm for sparse solutions of consistent linear system [J]. arXiv2013, 1305.3803v1. [百度学术

22

ROCKAFELLAR R TWETS Ret al. Variational analysis [M]. BerlinSpringer2009. [百度学术