<div dir="ltr"><div><div><div><div><div><div><div><div>Dear Petsc users<br><br></div>My aim is to replace the linear solver of an ocean model with Petsc, to see if is<br></div>there place for improvement of performances.<br><br></div>The linear system solves an elliptic equation, and the former solver is a <br></div>Preconditioned Conjugate Gradient, with a simple diagonal preconditioning.<br></div><div>The size of the matrix is roughly 27000<br></div><div><br></div>Prior to nest Petsc into the model, I've built a simple test case, where <br></div>the same system is solved by the two of the methods<br><br></div>I've noticed that, compared to the former solver (pcg), Petsc performance<br></div><div>results are quite disappointing<br><br></div><div>Pcg does not scale that much, but its solution time remains below <br></div><div>4-5e-2 seconds. <br></div><div>Petsc solution time, instead, the more cpu I use the more increases<br></div><div>(see output of -log_view in attachment ). <br></div><div><br></div><div>I've only tried to change the ksp solver ( gmres, cg, and bcgs with no<br></div><div>improvement) and preconditioning is the default of Petsc. Maybe these<br></div><div>options don't suit my problem very well, but I don't think this alone<br></div><div>justifies this strange behavior<br></div><div><br></div><div>I've tried to provide d_nnz and o_nnz for the exact number of nonzeros in the <br></div><div>Preallocation phase, but no gain even in this case.<br></div><div><br>At this point, my question is, what am I doing wrong?<br><br></div><div>Do you think that the problem is too small for the Petsc to <br></div><div>have any effect?<br><br></div><div>Thanks in advance<br></div><div>Ivano<br></div><div><br></div></div>