ya, i did use -log_summary. but no output.....<br><br>
<div><span class="gmail_quote">On 2/9/07, <b class="gmail_sendername">Barry Smith</b> &lt;<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>&gt; wrote:</span>
<blockquote class="gmail_quote" style="PADDING-LEFT: 1ex; MARGIN: 0px 0px 0px 0.8ex; BORDER-LEFT: #ccc 1px solid"><br>-log_summary<br><br><br>On Fri, 9 Feb 2007, Ben Tay wrote:<br><br>&gt; Hi,<br>&gt;<br>&gt; I&#39;ve tried to use log_summary but nothing came out? Did I miss out
<br>&gt; something? It worked when I used -info...<br>&gt;<br>&gt;<br>&gt; On 2/9/07, Lisandro Dalcin &lt;<a href="mailto:dalcinl@gmail.com">dalcinl@gmail.com</a>&gt; wrote:<br>&gt; &gt;<br>&gt; &gt; On 2/8/07, Ben Tay &lt;
<a href="mailto:zonexo@gmail.com">zonexo@gmail.com</a>&gt; wrote:<br>&gt; &gt; &gt; i&#39;m trying to solve my cfd code using PETSc in parallel. Besides the<br>&gt; &gt; linear<br>&gt; &gt; &gt; eqns for PETSc, other parts of the code has also been parallelized using
<br>&gt; &gt; &gt; MPI.<br>&gt; &gt;<br>&gt; &gt; Finite elements or finite differences, or what?<br>&gt; &gt;<br>&gt; &gt; &gt; however i find that the parallel version of the code running on 4<br>&gt; &gt; processors<br>
&gt; &gt; &gt; is even slower than the sequential version.<br>&gt; &gt;<br>&gt; &gt; Can you monitor the convergence and iteration count of momentum and<br>&gt; &gt; poisson steps?<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt; &gt; in order to find out why, i&#39;ve used the -info option to print out the
<br>&gt; &gt; &gt; details. there are 2 linear equations being solved - momentum and<br>&gt; &gt; poisson.<br>&gt; &gt; &gt; the momentum one is twice the size of the poisson. it is shown below:<br>&gt; &gt;<br>&gt; &gt; Can you use -log_summary command line option and send the output attached?
<br>&gt; &gt;<br>&gt; &gt; &gt; i saw some statements stating &quot;seq&quot;. am i running in sequential or<br>&gt; &gt; parallel<br>&gt; &gt; &gt; mode? have i preallocated too much space?<br>&gt; &gt;<br>&gt; &gt; It seems you are running in parallel. The &quot;Seq&quot; are related to local,
<br>&gt; &gt; internal objects. In PETSc, parallel matrices have inner sequential<br>&gt; &gt; matrices.<br>&gt; &gt;<br>&gt; &gt; &gt; lastly, if Ax=b, A_sta and A_end from&nbsp;&nbsp;MatGetOwnershipRange and b_sta<br>&gt; &gt; and
<br>&gt; &gt; &gt; b_end from VecGetOwnershipRange should always be the same value, right?<br>&gt; &gt;<br>&gt; &gt; I should. If not, you are likely going to get an runtime error.<br>&gt; &gt;<br>&gt; &gt; Regards,<br>&gt; &gt;
<br>&gt; &gt; --<br>&gt; &gt; Lisandro Dalcín<br>&gt; &gt; ---------------<br>&gt; &gt; Centro Internacional de Métodos Computacionales en Ingeniería (CIMEC)<br>&gt; &gt; Instituto de Desarrollo Tecnológico para la Industria Química (INTEC)
<br>&gt; &gt; Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET)<br>&gt; &gt; PTLC - Güemes 3450, (3000) Santa Fe, Argentina<br>&gt; &gt; Tel/Fax: +54-(0)342-451.1594<br>&gt; &gt;<br>&gt; &gt;<br>&gt; </blockquote>
</div><br>