<div dir="ltr"><div>Dear all,</div><div><br></div><div>I am working an optimization problem as </div><div>min_x  ||Ax - b||_2^2 + alpha ||x||_1</div><div><br></div><div>For the fidelity term, we use L2 norm.  We use L1 norm for the regularization term. Without regularization term, i.e., alpha=0, we iteratively solve the problem as</div><div>x_k+1 = KSP(x_k).</div><div><br></div><div>I plan to use the split Bregman method to solve the regularized problem. It reads as,</div><div>y_k+1 = KSP(x_k)</div><div>x_k+1 = B(y_k+1)</div><div>Here B() is the function related to the Bregman method. It works as a post-processing of the iterates.</div><div><br></div><div>I am wondering is there a way to combine this post-processing with the KSP solver? A brute-force way is modify the initial guess and set the max iteration number to 1.<br></div><div>This is also related to the projection type regularization:</div><div>min_{x in subspace G} ||Ax-b||^2_2</div><div>The scheme is </div><div><div>y_k+1 = KSP(x_k)</div><div>x_k+1 = P_G(y_k+1)</div><div>where P_G is the projection to subspace G.</div><div><br></div><div>Lingyun Qiu</div></div></div>