On Mon, Apr 25, 2011 at 9:06 AM, Eugene Kozlov <span dir="ltr"><<a href="mailto:neoveneficus@gmail.com">neoveneficus@gmail.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Hello,<br></blockquote><div><br></div><div>To answer any kind of question about performance, we need the full output of -log_summary.</div><div><br></div><div>    Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

I am trying to test PETSc capability of solving sparse linear systems<br>
in parallel with GPU.<br>
<br>
I compiled and tried to run example<br>
src/ksp/ksp/examples/tutorials/ex2.c, which can be executed in<br>
parallel.<br>
<br>
In this example matrix and vectors created using VecSetFromOptions()<br>
and MatSetFromOptions().<br>
<br>
According to the page<br>
<a href="http://www.mcs.anl.gov/petsc/petsc-2/features/gpus.html" target="_blank">http://www.mcs.anl.gov/petsc/petsc-2/features/gpus.html</a> , I execute<br>
the program with keys<br>
<br>
-vec_type mpicusp -mat_type mpiaijcusp<br>
<br>
in parallel on the different number of GPUs. Full command:<br>
<br>
cleo-submit -np 1 ex2 -ksp_type cg -vec_type mpicusp -mat_type<br>
mpiaijcusp -m 800 -n 800<br>
<br>
Where 'cleo-submit' is a batch manager utility.<br>
<br>
I tested the program on 1, 2 and 3 GPUs. As a result I have output as<br>
(for 3 GPUs):<br>
<br>
Norm of error 0.00012322 iterations 448<br>
Norm of error 0.00012322 iterations 448<br>
Norm of error 0.00012322 iterations 448<br>
<br>
and run times: 30, 40 and 46 seconds respectively.<br>
<br>
What can be a cause of these results?<br>
<br>
--<br>
Best regards,<br>
<font color="#888888">Eugene<br>
</font></blockquote></div><br><br clear="all"><br>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener<br>