摘要
求解线性方程组的稀疏解在图像重构、信号处理和机器学习等领域中具有广泛的应用,通过引入-范数正则化,可以转化为求解一个约束优化问题。基于一种选择系数矩阵工作行的概率准则,提出了稀疏贪婪随机Kaczmarz算法,并给出了有噪声干扰和无噪声干扰情况下该算法的收敛性分析。理论表明本文算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。数值实验验证了本文算法的有效性。
关键词
求解线性方程组的稀疏解在图像重构、信号处理和机器学习中具有广泛应
(1) |
求解该问题常见的算法包括基追踪方法、Bregman方法、共轭梯度方法
自Strohmer和Vershyni
在线性方程组相容的情况下,文献[
在稀疏随机Kaczmarz算法的基础之
符号标记如下,定义为线性方程组的解,其中,,表示系数矩阵A的第行。支持集S=是列向量中非零元的下标所构成的集合,是的子矩阵,由支持集中的指标选取系数矩阵的列构成,表示的是的第行,是在支持集限制下的列向量;定义为子矩阵的最小奇异值,其中为指标集中A的列构成的子矩阵,令;为哈达玛积(Hadamard product);为对支持集大小的估计值;为稀疏随机Kaczmarz算法第次迭代的权重值,。
当的解稀疏时,文献[
算法1 稀疏随机Kaczmarz算
稀疏随机Kaczmarz算法可以用比随机Kaczmarz算法更少的迭代步数找到最小二乘解。由于支持集和稀疏度都是未知的,因此稀疏随机Kaczmarz算法从支持集中所有元素的稀疏度的初始估计开始,然后在每一次迭代中,稀疏随机Kaczmarz算法通过去掉向量中数量级最小的元素下标来更新估计的支持集。该算法第次迭代的加权准则为
其中,为迭代步数。当时,,因此原线性方程组退化成
由于,因此稀疏随机Kaczmarz算法的收敛因子小于随机Kaczmarz算法。但是由于最小二乘解总是稠密的,该算法在求解超定线性方程组时,虽然在稀疏解零元对应位置上的元素很小,但仍然不等于零,因此在文献中提出稀疏Kaczmarz算法,文献[
算法2 随机稀疏Kaczmarz算
算法2中,。结合稀疏随机Kaczmarz算法和随机稀疏Kaczmarz算法的思想,受贪婪算法的启发,本文提出稀疏贪婪随机Kaczmarz算法,在保证算法能够计算出稀疏解的同时,通过贪婪的概率准则来选择工作行从而达到加快算法收敛速度的目的。算法3给出稀疏贪婪随机Kaczmarz算法。
算法3 稀疏贪婪随机Kaczmarz算法。①输入,,最大迭代数和估计的支持集的大小。②输出。③初始化,置时,当k时。⑤计算
(2) |
⑥决定正整数指标集
(3) |
⑦计算向量的第行
⑧以概率准则选择。⑨确定估计的支持集,如下:。⑩生成权重值
⑪计算
⑫计算 。⑬转步骤④。
为了证明求解正则基追踪问题(1)稀疏贪婪随机Kaczmarz算法依期望线性收敛,先回顾一些基本的概念和性
令是凸函数,用表示在的次微分
其中,是一个非空紧凸集。
定义1 凸函数,如果存在,使得对任意的且,有
那么是强凸的,当和的具体值相关时,则称是-强凸的。
定义2 [
有
(4) |
定义3 令是强凸函数,那么之间的Bregman距离由和一个次梯度定义
如果是可微的,那么有,因为,所以可以简化来写。
下面的引理都遵循强凸性的假
引理1 [
因此
对于序列和,的有界性意味着和有界。如果有一个连续梯度,那么也有。
定义4 令是强凸函数,且是一个非空闭凸集,则到上的Bregman投影是关于和满足下式的唯一点:
对于可微的,可以简化为和。
引理2 [
(5) |
(6) |
可以叫这样的点是的可允次梯度。
引理3表明,Bregman投影到仿射子空间和半空间可以通过求解可微共轭函数的无约束优化问题来计算。
引理3 [
(1)到仿射空间的Bregman投影是
其中是下式的解:
更重要的是,根据引理2,是的可允次梯度。如果行满秩,那么对任意的有
(2)到超平面满足的Bregman投影是
其中 是下式的解:
更重要的是是的可允次梯度,对任意的有
如果不是在半空间,那么有必要满足,且上面的不等式对任意的都成立。
引理
定理1 (无噪声情况) 令,。稀疏贪婪随机Kaczmarz算法所产生的迭代序列依期望线性收敛到唯一解,其收缩因子为
(7) |
从而
且
证明 根据引理3的(2)中的估计,有
(8) |
对
(9) |
根据
(10) |
将
(11) |
由
根据引理4有
(12) |
由于,从而
(13) |
令,则
根据引理1,令=1可得
证毕。
定理2 (有噪声情况) 已知右段噪声项满足。如果稀疏贪婪随机Kaczmarz算法的迭代值由替代来计算,那么有噪声干扰和无噪声干扰有相同的收缩因子
且
证明 令
和
(14) |
将
(15) |
在稀疏贪婪随机Kaczmarz算法中有 因此
而
所以
类似于无噪声情况的证明方法可以得到
通过归纳得出
由引理1,令,且,有
(16) |
将代入
证毕。
注意到稀疏贪婪随机Kaczmarz算法的收缩因子为
文献[
因
从而,因此
由此可以得出稀疏贪婪随机Kaczmarz算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。一般而言,收缩因子越小,收敛速度越快,因此理论分析表明稀疏贪婪随机Kaczmarz算法收敛速度会比原有的随机稀疏Kaczmarz算法的收敛速度更快。
通过随机生成的高斯矩阵和矩阵市场中的矩阵2个数值实验算例来比较稀疏贪婪随机Kaczmarz(SGRK)算法、随机稀疏Kaczmarz(RaSK)算法和稀疏随机Kaczmarz(SRK)算法的收敛速度。为了能够使三者收敛到相同解上进行比较,在本次数值实验中,在稀疏随机Kaczmarz算法最后一步加上了软阈值函数参与迭代以保证求得稀疏解。对相同参数的同一个线性方程组做了20次试验,得到迭代步数()和计算时间的平均值。解的相对误差(RSE)定义为
例1 利用Matlab软件中的randn函数随机生成系数矩阵和,其中有个非零元,之后利用得到相容线性方程组,初始向量。取,通过来设置解的稀疏度,其中是对稀疏度的初始估计值。
当解稀疏度为0.2、0.4、0.6以及0.8时,
当稀疏度为 0.2 和 0.8 时,

图1 当矩阵A的维数为1 000 × 150时SGRK、RaSK和SRK算法的收敛曲线
Fig. 1 Convergence curves of SGRK, RaSK and SRK methods for Example 1 at a matrix A of 1 000 × 150

图2 当矩阵A的维数为4 000 × 300时SGRK、RaSK和SRK算法的收敛曲线
Fig. 2 Convergence curves of SGRK, RaSK and SRK methods for Example 1 at a matrix A of 4 000 × 300
通过
例2 选取了矩阵市场中的一些矩阵进行数值实验。为了得到超定的系数矩阵,将所有的欠定矩阵取转置之后再做数值实验,取稀疏度估计为 = 2k,稀疏度k=0.2 n。
对于测试的矩阵,

图3 SGRK、RaSK 和 SRK 算法在稀疏度 k = 0.2 n时的收敛曲线
Fig. 3 Convergence curves of SGRK, RaSK and SRK methods convergence curve for Examples 2 at a sparsity k = 0.2 n

图4 SGRK、RaSK 和 SRK 算法在稀疏度k = 0.2 n时误差阈值和实际误差比较
Fig. 4 Comparison of error threshold and actual error of SGRK, RaSK and SRK methods at a sparsity k = 0.2 n

图5 SGRK、RaSK 和 SRK 算法在稀疏度k = 0.6 n时误差阈值和实际误差比较
Fig. 5 Comparison of error threshold and actual error of SGRK, RaSK and SRK methods at a sparsity k = 0.6 n
由
在随机稀疏Kaczmarz算法和稀疏随机Kaczmarz算法的基础上,受贪婪算法的启发,提出稀疏贪婪随机Kaczmarz算法,给出了新算法的收敛性分析,且在有噪声干扰和无噪声干扰的情况下,通过理论证明了新算法的收缩因子小于随机稀疏Kaczmarz算法的收缩因子。数值实验表明所提出的新算法在迭代步数和计算时间上均优于传统的随机稀疏Kaczmarz算法。
作者贡献声明
王 泽:算法设计者和算法研究的执行人,构造新的算法,给出收敛性证明,完成数值实验和数据分析、论文初稿的写作。
殷俊锋:研究的构思者及负责人,指导实验设计,数据分析,论文写作与修改。
参考文献
TSAIG Y, DONOHO D L. Extensions of compressed sensing [J]. Signal Processing, 2005, 86(3):549. [百度学术]
CANDES E, ROMBERG J, TAO T. Stable signal recovery from incomplete and inaccurate measurements [J]. Communications on Pure and Applied Mathematics, 2006, 59(8):1207. [百度学术]
ELAD M. Sparse and redundant representations: From theory to applications in signal and image processing [M]. Berlin: Springer, 2010. [百度学术]
BYRD R H, CHIN G M, WU Y, et al. Sample size selection in optimization models for machine learning [J]. Mathmatical Programming, 2012, 134(1):127. [百度学术]
CHEN S S, DONOHO D L, SAUNDERS M A. Atomic decomposition by basis pursuit [J]. SIAM Review, 2001, 43(1): 129. [百度学术]
YIN W, OSHER S, GOLDFARB D, et al. Bregman iterative algorithms for -minimization with applications to compressed sensing [J]. SIAM Journal on Imaging Sciences, 2008, 1(1): 143. [百度学术]
SCHÖPFER F. Linear convergence of descent methods for the unconstrained minimization of restricted strongly convex functions [J]. SIAM Journal on Optimization, 2016, 26(3): 1883. [百度学术]
STROHMER T, VERSHYNIN R. A randomized Kaczmarz algorithm with exponential convergence [J]. Journal of Fourier Analysis and Applications, 2009, 15(2): 262. [百度学术]
NEEDELL D, TROPP J A. Paved with good intensions: Analysis of a randomized block Kaczmarz method [J]. Linear Algebra and its Applications, 2014, 441(1): 199. [百度学术]
AGASKAR A, WANG C, LU Y M. Randomized Kaczmarz algorithms: Exact MSE analysis and optimal sampling probabilities [C]// 2014 IEEE Global Conference on Signal and Information Processing (Global SIP). [s.l.]: IEEE, 2015: 389-393. [百度学术]
LIU J, WRIGHT S. An accelerated randomized Kaczmarz algorithm [J]. Mathematics of Computation, 2016, 85(297): 153. [百度学术]
LORENZ D A, SCHÖPFER F, WENGER S. A sparse Kaczmarz solver and a linearized Bregman method for online compressed sensing [C]//2014 IEEE International Conference on Image Processing (ICIP). [s.l.]:IEEE,2015:1347-1351. [百度学术]
LORENZ D A, SCHÖPFER F, WENGER S. The linearized Bregman method via split feasibility problems: Analysis and generalizations [J]. SIAM Journal on Imaging Sciences, 2014, 7(2):1237. [百度学术]
ZOUZIAS A, FRERIS N M. Randomized extended Kaczmarz for solving least squares[J]. SIAM Journal on Matrix Analysis and Applications, 2013, 34(2): 773. [百度学术]
NEEDELL D. Randomized Kaczmarz solver for noisy linear system [J]. BIT Numerical Mathematics, 2010, 50(2): 395. [百度学术]
SCHÖPFER F, LORENZ D A. Linear convergence of the randomized sparse Kaczmarz method [J]. Mathematical Programming, 2019, 173(1/2): 509. [百度学术]
BAI Z Z, WU W T. On greedy randomized Kaczmarz method for solving large sparse linear systems [J]. SIAM Journal on Scientific Computing, 2018, 40: A592. [百度学术]
BAI Z Z, WU W T. On relaxed greedy randomized Kaczmarz methods for solving large sparse linear systems [J]. Applied Mathematics Letters, 2018, 83: 21. [百度学术]
杜亦疏, 殷俊锋, 张科. 求解大型稀疏线性方程组的贪婪距离随机Kaczmarz算法[J]. 同济大学学报(自然科学版),2020,48(8): 1224. DOI: 10.11908/j. issn. 0253-374x. 20041. [百度学术]
DU Yishu, YIN Junfeng, ZHANG Ke. Greedy randomized-distance Kaczmarz method for solving large sparse linear systems [J]. Journal of Tongji University (Natural Science), 2020,48(8): 1224. DOI: 10.11908/j. issn. 0253-374x. 20041. [百度学术]
荆燕飞,李彩霞,胡少亮. 求解大型稀疏线性系统的贪婪双子空间随机Kaczmarz方法 [J]. 同济大学学报(自然科学版),2021, 49(10): 1473. DOI: 10.11908/j. issn. 0253-374x. 21054. [百度学术]
JING Yanfei, LI Caixia, HU Shaoliang. A greedy two-subspace randomized Kaczmarz method for solving large sparse linear systems [J]. Journal of Tongji University (Natural Science), 2021, 49(10): 1473. DOI: 10.11908/j. issn. 0253-374x. 21054. [百度学术]
MANSOUR H, YILMAZ O. A fast randomized Kaczmarz algorithm for sparse solutions of consistent linear system [J]. arXiv, 2013, 1305.3803v1. [百度学术]
ROCKAFELLAR R T, WETS R, et al. Variational analysis [M]. Berlin: Springer,2009. [百度学术]