<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Mar 1, 2013 at 3:26 AM, Åsmund Ervik <span dir="ltr"><<a href="mailto:asmund.ervik@ntnu.no" target="_blank">asmund.ervik@ntnu.no</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div id=":nn">Thanks for clarifying this. I am already using OpenMP pragmas in non-PETSc routines in my code, and using petsc-dev. Are you saying that I should also somehow use OpenMP pragmas around the calls to KSPSolve etc.?<br>

<br>
Suppose that my program is usually run like this:<br>
"./run -pc_type gamg -ksp_type bcgs"<br>
with other values left to their defaults, and I want to make it run in parallel:<br>
"./run -pc type gamg -ksp_type bcgs -threadcomm_type openmp -threadcomm_nthreads 8"<br>
<br>
When I do this, the PC and KSP still run in serial as far as I can tell, and the program does not execute faster. What am I missing here?<br></div></blockquote><div><br></div><div style>Matrix and vector operations are probably running in parallel, but probably not the operations that are taking time. Always send -log_summary if you have a performance question.</div>
<div>  </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div id=":nn">
In case it is of interest, the matrix from my Poisson equation has in the range of 0.4 - 1 million nonzero elements, on average 5 per row.</div></blockquote></div><br><br></div></div>