网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

求解大型线性最小二乘问题的贪婪Gauss-Seidel方法  PDF

  • 李寒宇
  • 张彦钧
重庆大学 数学与统计学院, 重庆 401331

中图分类号: O241.6

最近更新:2021-11-25

DOI:10.11908/j.issn.0253-374x.21201

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

基于一种选择系数矩阵A的工作列的策略,提出了求解大型线性最小二乘问题的一种不同的贪婪Gauss-Seidel方法,并对该方法进行了收敛性分析。数值实验表明,在相同的精度下,所提方法在计算时间上优于文献提出的贪婪随机坐标下降方法。

线性最小二乘问题是数值代数与科学计算中一个经典问题,经常出现于参数估计、反演与预测等问题之中。常见的直接法包括带旋转的QR分解法和奇异值分解

1-2等。然而, 当矩阵规模较大时, 此类方法通常需要很大的存储量并且计算成本较高。因此,迭代法成为求解大型线性最小二乘问题的重要选择,如著名的Gauss-Seidel方3

众所周知, Gauss-Seidel方法与Kaczmarz方法密切相关, 如它们均可视为坐标下降法对应于特殊半正定线性系统的变形。具体地,对于线性系统Ax=b, Kaczmarz方法的迭代格式与坐标下降法应用于半正定系统AATu=b,并结合标准的原始-对偶映射x=ATu的迭代格式一致, Gauss-Seidel方法等同于坐标下降法应用于半正定系统ATAx=ATb的迭代格

4。2009年, Strohmer和Vershynin5首次证明了随机Kaczmarz方法具有线性收敛性。随后, Leventhal和Lewis6证明了随机Gauss-Seidel(RGS)方法也具有类似的结果, 该方法也称为随机坐标下降方法。它是根据适当的概率分布随机投影于矩阵A的列, 达到最小化b-Ax22的目的, 因而具有很好的性能, 从而引起了广泛的关注,可参见文献[7-14]及其参考文献。

Bai和Wu

15提出了贪婪随机坐标下降(GRCD)方法, 该方法引入了一种贪婪的概率准则, 避免了RGS方法的一些缺点, 从而使得其在迭代次数和计算时间上都优于RGS方法。文献[15]提出的贪婪思想具有广泛的应用, 参见文献[16-24]及其参考文献。

本文提出一种求解大型线性最小二乘问题的贪婪Gauss-Seidel(GGS)方法, 与GRCD方法相比,它采用了完全不同的方式来确定矩阵A的工作列, 使得其每次迭代所需的计算时间更少。从理论上证明GGS方法的收敛性;在数值实验中,利用文献[

15]中的例子比较了GGS和GRCD这2种方法的性能。

1 预备知识

对于向量z ϵ Rnz(j)表示它的第j个分量。对于矩阵G=gij ϵ Rm×nG(j)||G||2以及||G||F分别表示它的第j列、谱范数以及F范数。此外,如果G ϵ Rn×n是一个正定矩阵,那么任意一个向量x ϵ Rn的能量范数定义为||x||G=xTGx,其中(·)T表示一个向量或者一个矩阵的转置。另外,用I表示单位矩阵, 用ej表示它的第j列,用λmin(GTG)表示GTG的最小正特征值,用|W|表示集合W的元素个数。

类似文献[

15],本文以x*=Ab,其中A=(ATA)-1AT表示A的Moore-Penrose广义逆,表示如下线性最小二乘问题的唯一最小范数最小二乘解:

minx ϵ n b-Ax22 (1)

其中矩阵A ϵ Rm×n列满秩,向量bϵ Rm. 众所周知, x*argminx ϵ Rn b-Ax22是关于式(1)的如下正规方程

25的解:

ATAx=ATb (2)

基于正规方程组(2),文献[

15]提出了如下贪婪随机坐标下降方法,即算法1,其中rk=b-Axk表示残差向量。

算法1   贪婪随机坐标下降方法。 ①置k:=0。 计算δk=12(1||ATrk||22max1jn AjTrk2Aj22+1||A||F2) 。 ②定义正整数指标集vk=j AjTrk2δk||ATrk||22Aj22}。③令sk=ATrk, 计算sk̃(j)=sk(j),   j vk,0,     ④根据概率Pr c=jk=|sk̃(jk)|2||sk̃||22选取指标jk vk ⑤计算xk+1=xk+sk(jk)Ajk22ejk。 ⑥置k=k+1, 转步骤①。

由贪婪随机坐标下降方法中δkvk的定义可知, 如果l vk, 那么

AlTrk2Al2212(max1jn AjTrk2Aj22+ATrk22||A||F2)

注意到

max1jn AjTrk2Aj22j=1nAj22||A||F2AjTrk2Aj22=ATrk22||A||F2

因此,不能得到如下结论:如果l vk,那么AlTrk2Al22max1jn AjTrk2Aj22, 也即

AlTrk2Al22=max1jn AjTrk2Aj22

由此可知,可能存在一些l vk使得

AlTrk2Al22<max1jn AjTrk2Aj22 (3)

与此同时, 对于任意的jk vk, 由迭代格式可以得到

||Axk+1-Axk||22=AjkTrk2Ajk22 (4)

结合式(3)式(4)可以发现,在更新得到xk+1的时候, 指标集合vk中的列指标并不能保证Axk+1Axk之间的距离最大。此外,在计算δk的时候需要计算矩阵A的所有列范数。

2 基于残差-距离的贪婪Gauss-Seidel方法

考虑到贪婪随机坐标下降方法里指标集合vk中的列指标并不能保证Axk+1Axk之间的距离最大, 并且计算δk的时候需要计算矩阵A的所有列范数; 同时,考虑到最近很多工作按照最大残

26-30策略选择迭代指标,提出了基于残差-距离的贪婪Gauss-Seidel方法,即算法2。

算法2   贪婪Gauss-Seidel方法。①置k:=0。 确定正整数指标集

Rk=jk̃jk̃=argmax1jn AjTrk}

②计算

jk=argmaxjk ̃ Rk Ajk̃Trk2Ajk̃22

③计算

xk+1=xk+AjkTrkAjk22ejk

④置k=k+1, 转步骤①。

贪婪Gauss-Seidel方法主要包括2步:①通过正规方程组(2)的残差向量sk的最大元素确定指标集合Rk。②按照Axk+1Axk之间的距离最大准则从集合Rk中选择迭代所需列指标。粗略看来,该方法似乎改变了贪婪随机坐标下降方法的2个主要步骤的顺序。然而,与贪婪随机坐标下降方法相比,贪婪Gauss-Seidel方法除了在求xk+1时使得Axk+1Axk之间的距离最大之外,也不再需要计算矩阵A每一列的范数。此外,由于Rk是由向量sk的最大项决定的,还可以发现集合Rk中的元素个数可能小于集合vk中的元素个数,即|Rk|<|vk|。因此,该方法可以减少每次迭代的计算成本,从而可期待在计算时间上会有更好的表现,这一点将在第3节中的数值实验中进行验证。

注1   如果AjkTrk=max1jn AjTrk,则jk Rk由此可知贪婪Gauss-Seidel方法中的集合Rk非空。

注2   类似于贪婪随机坐标下降方法,贪婪Gauss-Seidel方法可利用Ajk̃Trk2Ajk̃22,其中jk̃ Rk,作为概率选择标准得到相应的随机算法。在这种情况下,它的收敛因子可能比贪婪Gauss-Seidel方法稍差,因为贪婪Gauss-Seidel方法是根据Ajk̃Trk2Ajk̃22最大的值来选择指标的,其使得Axk+1Axk之间的距离最大。

注3   在贪婪Gauss-Seidel方法中确定了指标集合Rk之后, 类似文献[

31-34]中的思想,可以得到关于贪婪Gauss-Seidel方法的分块算法。

接下来, 给出贪婪Gauss-Seidel方法的收敛性分析。

定理1   由贪婪Gauss-Seidel方法生成的迭代序列{xk}k=0,从初始向量x0 ϵ Rn开始,线性收敛于唯一的最小范数最小二乘解x*=Ab,并且

x1-x*ATA2(1-1|R0|·j0 R01Aj022·1n·λmin(ATA))x0-x*ATA2 (5)

对于k=1, 2, ,有

xk+1-x*ATA21-1Rk·jk Rk1Ajk22·1n-1·λminATAxk-x*ATA2 (6)

此外, 令β=min {1Rk·jk Rk1Ajk22}k=1, 2, , 则对于k=1, 2, ,有

xk-x*ATA21-β·λminATAn-1k-1(1-j0 R0λmin(ATA)|R0|·Aj022·n)·x0-x*ATA2 (7)

证明   由贪婪Gauss-Seidel方法的迭代格式可知

Axk+1-xk=AjkTrkAjk22A(jk)

这意味着Axk+1-xk平行于A(jk)。与此同时

Axk+1-x*=Axk-x*+AjkTrkAjk22ejk= A(xk-x*)+AjkTrkAjk22A(jk)

结合ATAx*=ATb可以得到

Axk+1-x*=I-A(jk)AjkTAjk22Axk-x*

AjkTAxk+1-x*=AjkTI-A(jk)AjkTAjk22Axk-x*=0 

Axk+1-x*垂直于A(jk)。因此, 向量Axk+1-xk垂直于向量Axk+1-x*. 由勾股定理可得

      Axk+1-x*22=Axk-x*22-Axk+1-xk22

其等价形式为

      xk+1-x*ATA2=xk-x*ATA2-xk+1-xkATA2 (8)

另一方面, 由贪婪Gauss-Seidel方法可知

 |AjkTrk|=max1jn AjTrk

并且

|AjkTrk|2Ajk22=maxj Rk A(j)Trk2Aj22

xk+1-xkATA2=Axk+1-xk22=
AjkTrk2Ajk22jk Rk|AjkTrk|2Ajk22j RkAjTrk2Aj22·|AjkTrk|2Ajk22
 jk Rk1|Rk|·|AjkTrk|2Ajk22=jk Rk1|Rk|·max1jn |AjTrk|2Ajk22 (9)

因此, 将式(9)代入式(8)可得

    xk+1-x*ATA2xk-x*ATA2-jk Rk1Rk·max1jn |AjTrk|2Ajk22 (10)

k=0时,有

max1jn AjTr02=max1jn AjTr02·ATr022j=1nAjTr021n·ATr022

结合文献[

16]中的结果:

ATx22λmin(ATA)x22 (11)

其中向量x属于A的列空间,可得到

max1jn AjTr021n·λmin(ATA)· Ax*-Ax022=1n·λmin(ATA)· x0-x*ATA2 (12)

因此, 将式(12)代入式(10)可得

x1-x*ATA2x0-x*ATA2-j0R01|R0|·1Aj022·1n·λminATA· x0-x*ATA2=(1-1|R0|·j0R01Aj022·1n·λmin(ATA))x0-x*ATA2

这即是式(5)

k1时,有

max1jn AjTrk2=max1jn AjTrk2·ATrk22j=1nAjTrk2

根据贪婪Gauss-Seidel方法的迭代格式, 立刻可得

Ajk-1Trk=Ajk-1T(rk-1-Ajk-1Trk-1Ajk-122A(jk-1))= Ajk-1Trk-1-Ajk-1Trk-1=0

max1jn AjTrk2= max 1jn AjTrk2·ATrk22j=1jjk-1nAjTrk21n-1·ATrk22

结合式(11)得到

max1jn AjTrk21n-1·λmin(ATA) Ax*-Axk22=1n-1·λmin(ATA) xk-x*ATA2 (13)

因此, 将式(13)代入式(10)可得

xk+1-x*ATA2xk-x*ATA2-jk Rk1Rk·1Ajk22·1n-1·λminATAxk-x*ATA2=1-1Rk·jk Rk1Ajk22·1n-1·λminATAxk-x*ATA2

这即是式(6)。关于迭代指标k递归可得到式(7)

注4   运用下面不等式

1-λminATAAF2-min1jn Aj22<1-λminATAAF2<1

可以得到

0<λminATAmax1jn Aj22·(n-1)λminATAAF2-min1jn Aj22<1

再结合

1max1jn Aj22β1n·jk=1n1Ajk22

可得到

1-β·λminATAn-11-λminATAmax1jn Aj22·(n-1)<1

因此, 贪婪Gauss-Seidel方法的收敛因子确实是小于1的。

注5   贪婪随机坐标下降方

15的误差估计如下:

Εk[xk+1-x*ATA2]1-121AF2-min1jn Aj22+1AF2λminATAxk-x*ATA2

其中k=1, 2, 由此可知贪婪随机坐标下降方法的收敛因子为

 1-121AF2-min1jn Aj22+1AF2λminATA

由于直接比较贪婪Gauss-Seidel(GGS)和贪婪随机坐标下降(GRCD)2种方法的收敛因子并不容易, 所以采用2个数值例子进行比较。此外, 还绘制了2种方法的实际收敛速率, 其定

17如下:

ρk=(Ε[xk-x*22]x0-x*22)1k,   k1

图1表明, 贪婪Gauss-Seidel方法和贪婪随机坐标下降方法的收敛因子基本相同,但前者的实际收敛速率略好于后者。

图1 GGS和GRCD方法的收敛因子与实际收敛速率

Fig. 1 Convergence factors and rates of the GGS and GRCD methods

3 数值实验

通过数值实验比较贪婪Gauss-Seidel (GGS)方法和贪婪随机坐标下降(GRCD)方法在求解线性最小二乘问题上的表现,其中矩阵A来自2类集合,一类是由Matlab函数randn随机生成,一类是来自不同应用的稀疏矩

35。为了公正直接地比较GGS和GRCD方法,采用的例子都来自文献[15]。

主要依据迭代次数(IT)和CPU计算时间比较这2种方法。数值结果中的迭代次数和计算时间表示的是50次重复运行相应方法的平均值。此外,为了直观地比较2种方法,给出了GGS方法相对于GRCD方法的迭代次数加速比(IT speed-up),其定义为GRCD方法所需的迭代次数除以GGS方法所需的迭代次数,同时给出了GGS方法相对于GRCD方法的计算时间加速比(CPU speed-up),其定义为GRCD方法所需的计算时间除以GGS方法所需的计算时间。对于来自文献[

35]的稀疏矩阵, 其稠密度定义为矩阵非零元素个数除以矩阵元素个数。

在数值实验中,解向量x*由Matlab函数randn随机生成。对于相容的系统, 令右边b=Ax*对于不相容的系统, 取b=Ax*+r0,其中r0是属于AT的零空间的一个非零向量, 由Matlab函数null生成。本节所有的数值实验, 均取初始向量x0=0, 停机准则为近似解的相对误差xk-x*22x*22<10-6,或者迭代次数超过20万步。

对于第一类随机生成的矩阵, 线性系统相容时, 2类迭代法的迭代次数和计算时间的数值结果如表1所示; 当线性系统不相容时, 其数值结果如表2所示。从表1表2可以看出, GGS方法的迭代次数与GRCD方法几乎相同, 但在计算时间上, GGS方法的效率更高,计算时间加速比至少可达到1.626。

表1 GGS和GRCD 2种方法在随机数据矩阵时求解相容系统的数值结果
Tab. 1 Numerical results of solving consistent systems with random data matrices by using the GGS and the GRCD methods
ITCPU计算时间
GGSGRCDIT speed-upGGSGRCDCPU speed-up
1 000×50 126.000 0 128.240 0 1.017 8 0.013 8 0.063 1 4.590 9
1 000×100 374.000 0 361.500 0 0.966 6 0.046 6 0.170 3 3.657 7
1 000×150 603.000 0 600.560 0 0.996 0 0.104 4 0.319 4 3.059 9
2 000×50 108.000 0 106.260 0 0.983 9 0.012 5 0.052 5 4.200 0
2 000×100 246.000 0 245.720 0 0.998 9 0.046 6 0.131 3 2.818 8
2 000×150 439.000 0 445.680 0 1.015 2 0.109 4 0.269 1 2.460 0
3 000×50 105.000 0 104.960 0 0.999 6 0.017 2 0.055 6 3.236 4
3 000×100 231.000 0 236.880 0 1.025 5 0.061 9 0.144 4 2.333 3
3 000×150 409.000 0 409.040 0 1.000 1 0.140 0 0.283 4 2.024 6
4 000×50 96.000 0 99.740 0 1.039 0 0.019 4 0.057 2 2.951 6
4 000×100 205.000 0 209.120 0 1.020 1 0.067 8 0.138 8 2.046 1
4 000×150 337.000 0 343.660 0 1.019 8 0.163 8 0.266 2 1.626 0
5 000×50 96.000 0 95.380 0 0.993 5 0.025 0 0.060 0 2.400 0
5 000×100 195.000 0 203.080 0 1.041 4 0.072 8 0.156 9 2.154 5
5 000×150 340.000 0 337.020 0 0.991 2 0.181 9 0.297 8 1.637 5
表2 GGS和GRCD 2种方法在随机数据矩阵时求解不相容系统的数值结果
Tab. 2 Numerical results of solving inconsistent systems with random data matrices by using the GGS and the GRCD methods
ITCPU计算时间
GGSGRCDIT speed-upGGSGRCDCPU speed-up
1 000×50 120.000 0 124.860 0 1.040 5 0.012 5 0.059 1 4.725 0
1 000×100 329.000 0 321.380 0 0.976 8 0.040 0 0.159 1 3.976 6
1 000×150 589.000 0 579.560 0 0.984 0 0.099 4 0.300 9 3.028 3
2 000×50 113.000 0 110.200 0 0.975 2 0.011 9 0.056 6 4.763 2
2 000×100 245.000 0 250.060 0 1.020 7 0.053 1 0.132 2 2.488 2
2 000×150 434.000 0 444.720 0 1.024 7 0.111 3 0.266 6 2.396 1
3 000×50 107.000 0 105.080 0 0.982 1 0.019 4 0.055 3 2.854 8
3 000×100 235.000 0 232.360 0 0.988 8 0.060 9 0.141 2 2.317 9
3 000×150 399.000 0 401.460 0 1.006 2 0.140 3 0.276 9 1.973 3
4 000×50 95.000 0 97.480 0 1.026 1 0.019 4 0.053 7 2.774 2
4 000×100 220.000 0 216.740 0 0.985 2 0.069 4 0.144 4 2.081 1
4 000×150 348.000 0 356.800 0 1.025 3 0.152 5 0.277 2 1.817 6
5 000×50 87.000 0 91.940 0 1.056 8 0.018 7 0.055 9 2.983 3
5 000×100 212.000 0 215.960 0 1.018 7 0.086 2 0.156 6 1.815 2
5 000×150 336.000 0 339.260 0 1.009 7 0.164 1 0.305 0 1.859 0

对于第二类矩阵, 即文献[

35]中的稀疏列满秩矩阵, 线性系统相容时, 2类迭代方法的迭代次数和计算时间的数值结果如表3所示; 当线性系统不相容时, 其数值结果如表4所示。从这2个表中可见, 除了非常病态的矩阵Trefethen_300外,GGS方法和GRCD方法的迭代次数几乎相同。但对于所有矩阵, GGS方法的计算时间都小于GRCD方法, 计算时间加速比至少可达到1.531 5。

表3 GGS和GRCD 2种方法在真实数据矩阵时求解相容系统的数值结果
Tab. 3 Numerical results of solving consistent systems with real‑world data matrices by using the GGS and the GRCD methods
矩阵名称稠密度/%ITCPU计算时间
GGSGRCDIT speed-upGGSGRCDCPU speed-up
abtaha1 14 596×209 1.68 12.23 14 888 13 966 0.938 0 8.255 0 12.642 8 1.531 5
Cities 55×46 53.04 207.15 29 181 40 937 1.402 9 0.174 7 1.849 7 10.588 6
divorce 50×9 50.00 19.39 634 647 1.020 0 0.002 8 0.031 6 11.222 2
WorldCities 315×100 23.87 66.00 5 011 5 011 1.000 0 0.077 2 0.291 6 3.777 3
Trefethen_300 300×300 5.20 1 772.69 3 210 1 374 0.428 0 0.041 6 0.073 4 1.766 9
cage5 37×37 17.02 15.42 1 477 1 624.4 1.099 8 0.006 6 0.070 0 10.666 7
表4 GGS和GRCD 2种方法在真实数据矩阵时求解不相容系统的数值结果
Tab. 4 Numerical results of solving inconsistent systems with real‑world data matrices by using the GGS and the GRCD methods
矩阵名称稠密度/%ITCPU计算时间
GGSGRCDIT speed-upGGSGRCDCPU speed-up
abtaha1 14 596×209 1.68 12.23 11 264 12 571 1.116 0 6.275 0 11.303 4 1.801 3
Cities 55×46 53.04 207.15 28 449 39 752 1.397 3 0.171 6 1.827 8 10.653 9
divorce 50×9 50.00 19.39 552 497 0.899 8 0.002 8 0.021 3 7.555 6
WorldCities 315×100 23.87 66.00 3 532 3 576 1.012 5 0.055 0 0.205 0 3.727 3

因此,数值实验显示GGS方法的迭代次数与GRCD方法几乎相同, 但在所有情形中, 贪婪Gauss-Seidel方法在计算时间上总是优于贪婪随机坐标下降方法。

4 结论与展望

针对大型线性最小二乘问题, 提出了一类新的贪婪Gauss-Seidel方法,理论分析了新方法的收敛性。数值实验表明,本文方法虽然与贪婪随机坐标下降方法的迭代次数几乎相同, 但所需计算时间更少。主要原因在于本文方法不仅避免了矩阵A所有列范数的计算, 而且指标集合的元素个数更少, 从而减少了每次迭代的计算时间。

众所周知, 对于Gauss-Seidel方法而言, 工作列的选取准则在整个迭代过程都有着十分重要的影响。如何设计一个随机的列选取准则改进贪婪Gauss-Seidel方法需要进行进一步的研究。

作者贡献声明

李寒宇:主要负责本文的指导和修订工作,包括文章框架结构、方法分析和验证等。

张彦钧:主要负责本文的初稿撰写工作,包括算法推导、理论证明与数值实现。

参考文献

1

BJÖRCK Å. Numerical methods for least squares problems [M]. PhiladelphiaSociety for Industrial and Applied Mathematics1996. [百度学术

2

HIGHAM N J. Accuracy and stability of numerical algorithms [M]. PhiladelphiaSociety for industrial and applied mathematics2002. [百度学术

3

SAAD Y. Iterative methods for sparse linear systems [M]. PhiladelphiaSociety for Industrial and Applied Mathematics2003. [百度学术

4

HEFNY ANeedell DRamdas A. Rows versus columns: Randomized Kaczmarz or Gauss-Seidel for ridge regression [J]. SIAM Journal on Scientific Computing2017395): S528. [百度学术

5

STROHMER TVERSHYNIN R. A randomized Kaczmarz algorithm with exponential convergence [J]. Journal of Fourier Analysis and Applications2009152): 262. [百度学术

6

LEVENTHAL DLEWIS A S. Randomized methods for linear constraints: Convergence rates and conditioning [J]. Mathematics of Operations Research2010353): 641. [百度学术

7

MA ANEEDELL DRAMDAS A. Convergence properties of the randomized extended Gauss-Seidel and Kaczmarz methods [J]. SIAM Journal on Matrix Analysis and Applications2015364): 1590. [百度学术

8

EDALATPOUR VHEZARI DSALKUYEH D K. A generalization of the Gauss-Seidel iteration method for solving absolute value equations [J]. Applied Mathematics and Computation2017293156. [百度学术

9

TU SVENKATARAMAN SWILSON A Cet al. Breaking locality accelerates block Gauss-Seidel [C]//International Conference on Machine Learning. SydneyPMLR20173482-3491. [百度学术

10

CHEN LSUN DTOH K C. An efficient inexact symmetric Gauss-Seidel based majorized ADMM for high-dimensional convex composite conic programming [J]. Mathematical Programming20171611/2): 237. [百度学术

11

TIAN ZTIAN MLIU Zet al. The Jacobi and Gauss–Seidel-type iteration methods for the matrix equation AXB= C [J]. Applied Mathematics and Computation201729263. [百度学术

12

XU Y. Hybrid Jacobian and Gauss-Seidel proximal block coordinate update methods for linearly constrained convex programming [J]. SIAM Journal on Optimization2018281): 646. [百度学术

13

DU K. Tight upper bounds for the convergence of the randomized extended Kaczmarz and Gauss-Seidel algorithms [J]. Numerical Linear Algebra with Applications2019263): e2233. [百度学术

14

RAZAVIYAYN MHONG MREYHANIAN Net al. A linearly convergent doubly stochastic Gauss-Seidel algorithm for solving linear equations and a certain class of over-parameterized optimization problems [J]. Mathematical Programming20191761/2): 465. [百度学术

15

BAI Z ZWU W T. On greedy randomized coordinate descent methods for solving large linear least-squares problems [J]. Numerical Linear Algebra with Applications2019264): e2237. [百度学术

16

BAI Z ZWU W T. On greedy randomized Kaczmarz method for solving large sparse linear systems [J]. SIAM Journal on Scientific Computing2018401): A592. [百度学术

17

BAI Z ZWU W T. On relaxed greedy randomized Kaczmarz methods for solving large sparse linear systems [J]. Applied Mathematics Letters20188321. [百度学术

18

杜亦疏殷俊锋张科.求解大型稀疏线性方程组的贪婪距离随机Kaczmarz方法[J].同济大学学报(自然科学版)2020488):1224. [百度学术

DU YishuYIN JunfengZHANG Ke. Greedy randomized-distance Kaczmarz method for solving large sparse linear systems[J]. Journal of Tongji University(Natural Science)2020488):1224. [百度学术

19

NUTINI J. Greed is good: Greedy optimization methods for large-scale structured problems [D]. VancouverUniversity of British Columbia2018. [百度学术

20

ZHANG J J. A new greedy Kaczmarz algorithm for the solution of very large linear systems [J]. Applied Mathematics Letters201991207. [百度学术

21

DU KGAO H. A new theoretical estimate for the convergence rate of the maximal weighted residual Kaczmarz algorithm [J]. Numerical Mathematics: Theory, Methods and Applications, 2019122): 627. [百度学术

22

LIU YGU C Q. Variant of greedy randomized Kaczmarz for ridge regression [J]. Applied Numerical Mathematics2019143223. [百度学术

23

NIU Y QZHENG B. A greedy block Kaczmarz algorithm for solving large-scale linear systems [J]. Applied Mathematics Letters2020104106294. [百度学术

24

ZHANG JGUO J. On relaxed greedy randomized coordinate descent methods for solving large linear least-squares problems [J]. Applied Numerical Mathematics2020157372. [百度学术

25

OSBORNE E E. On least squares solution of linar equations [J]. Journal of the Association for Computing Machinery19618628. [百度学术

26

HADDOCK JNEEDELL D. On Motzkin’s method for inconsistent linear systems [J]. BIT Numerical Mathematics2019592): 387. [百度学术

27

REBROVA ENEEDELL D. Sketching for Motzkin’s iterative method for linear systems [C]//53rd Asilomar Conference on Signals, Systems, and Computers. Pacific GroveIEEE2019271-275. [百度学术

28

MOTZKIN T SSCHOENBERG I J. The relaxation method for linear inequalities [J]. Canadian Journal of Mathematics19546393. [百度学术

29

NUTINI JSEPEHRY BLARADJI Iet al. Convergence rates for greedy Kaczmarz algorithms, and faster randomized Kaczmarz rules using the orthogonality graph [J]. arXiv preprint arXiv20161612.07838. [百度学术

30

PETRA SPOPA C. Single projection Kaczmarz extended algorithms [J]. Numerical Algorithms2016733): 791. [百度学术

31

DU KSI WSUN X. Randomized extended average block Kaczmarz for solving least squares [J]. SIAM Journal on Scientific Computing2020426): A3541. [百度学术

32

DU KSUN X. A doubly stochastic block Gauss-Seidel algorithm for solving linear equations [J]. Applied Mathematics and Computation2021408126373. [百度学术

33

NECOARA I. Faster randomized block Kaczmarz algorithms [J]. SIAM Journal on Matrix Analysis and Applications2019404): 1425. [百度学术

34

LI HZHANG Y. Greedy block Gauss-Seidel methods for solving large linear least squares problem [J]. arXiv preprint arXiv20202004.02476. [百度学术

35

DAVIS T AHU Y. The University of Florida sparse matrix collection [J]. ACM Transactions on Mathematical Software (TOMS)2011381): 1. [百度学术