On Mon, Nov 14, 2011 at 12:02 PM, Bogdan Dita <span dir="ltr">&lt;<a href="mailto:bogdan@lmn.pub.ro">bogdan@lmn.pub.ro</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
  Hello,<br>
<br>
  Below is my post from a few days ago and this time I&#39;ve attached the<br>
output from log_summary.<br></blockquote><div><br></div><div>The time increase comes completely from SuperLU_dist during the factorization</div><div>phase. You should use -ksp_view so we can see what solver options are used.</div>
<div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
&quot;<br>
  Until a few days ago I&#39;ve only be using PETSc in debug mode and when I<br>
switch to the optimised version(--with-debugging=0) I got a strange<br>
result regarding the solve time, what I mean is that it was 10-15 %<br>
higher then in debug mode.<br>
  I&#39;m trying to solve a linear system in parallel with superlu_dist, and<br>
I&#39;ve tested my program on a Beowulf cluster, so far only using a single<br>
node with 2 quad-core Intel processors.<br>
  From what I know the &quot;no debug&quot; version should be faster and I know it<br>
should be faster because on my laptop(dual-core Intel) for the same<br>
program and even the same matrices the solve time for the optimised<br>
version is 2 times faster, but when I use the cluster the optimised<br>
version time is slower then the debug version.<br>
  Any thoughts?<br>
<br>
&quot;<br>
  Best regards,<br>
<font color="#888888">  Bogdan Dita<br>
<br>
<br>
<br>
</font></blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>