<div dir="ltr">Hello<div><br></div><div style>In the code I am developing, there is a point where I will need to solve a linear system with the same matrix but different right hand sides. It is a time-dependent model and the matrix in question will change each timestep, but for a single timestep ~30-40 linear solves will be required, with the same matrix but differing right hand sides. Each right hand side depends on the previous, so they cannot all be solved simultaneously.</div><div style><br></div><div style>Generally I solve the matrix via CG with  Block Jacobi / ILU(0) preconditioning. I don't persist the matrix in between solves (i.e. I destroy the Mat, KSP and Vec objects after each linear solve) because I do not get the feeling this makes a large difference to performance and it is easier in dealing with the rest of the model code, which does not use PETSc. The matrix is positive definite with sparsity of 18 nonzero elements per row, and generally the linear system is smaller than 1 million degrees of freedom.</div><div style><br></div><div style>If my matrix was dense, then likely retaining LU factors for foward/backward substitution would be a good strategy (though I'm not sure if this is easily doable using PETSc direct solvers). But given the sparsity I am unsure of whether I can take advantage of using the same matrix 30-40 times in a row. </div><div style><br></div><div style>The comments in ex16.c state that when a KSP object is used multiple times for a linear solve, the preconditioner operations are not done each time -- and so I figured that if I changed my preconditioning parameters I might be able to make subsequent solves with the same KSP object faster. I tried an experment in which I increased pc_factor_levels, and then created a number of random vectors, e.g. vec_1, vec_2, vec_3... and called <br><br>KSPSolve(ksp, vec_i, solution_i)<br><br>sequentially with the same ksp object. I did see a decrease in the number of CG iterations required as pc_factor_levels was increased, as well as an increase in time for the first linear solve, but no decrease in time required for subsequent solves. *Should* there be a timing decrease? But more generally is there a way to optimize the fact I'm solving 40 linear systems with the same matrix?</div><div style><br></div><div style>Apologies for not providing a copy of the relevant bits of code -- this is my first email to the group, and a rather long one already -- happy to be more concrete about anything I've said above.</div><div style><br></div><div style>Thanks</div><div style>Dan</div><div><div><br></div>-- <br><div class="gmail_signature"><div dir="ltr"><br>Daniel Goldberg, PhD<br>Lecturer in Glaciology<div>School of Geosciences, University of Edinburgh<br><span style="color:rgb(0,0,0);font-family:arial,helvetica,clean,sans-serif;line-height:15px">Geography Building, Drummond Street, Edinburgh EH8 9XP</span><br><br><br>em: <a href="mailto:dgoldber@mit.edu" target="_blank">D</a><a href="mailto:an.Goldberg@ed.ac.uk" target="_blank">an.Goldberg@ed.ac.uk</a><br>web: <a href="http://ocean.mit.edu/~dgoldberg" target="_blank">http://ocean.mit.edu/~dgoldberg</a></div></div></div>
</div></div>