I think it is time to ask your system administrator for help.<br><br>  Matt<br><br><div class="gmail_quote">On Thu, Jul 9, 2009 at 12:02 AM, Yin Feng <span dir="ltr">&lt;<a href="mailto:yfeng1@tigers.lsu.edu">yfeng1@tigers.lsu.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Firstly, thanks for all your replies!<br>
<br>
I changed compiler to MPICH and tried a sample successfully but the<br>
problem is still there.<br>
I ran my code in 4 nodes and each node have 8 processors. And the<br>
information I saw is like:<br>
 NODE        LOAD<br>
       0             32<br>
       1              0<br>
        2             0<br>
       3              0<br>
<br>
Normally, in that case, we should see is:<br>
NODE        LOAD<br>
       0             8<br>
       1              8<br>
        2             8<br>
       3              8<br>
<br>
So, anyone got any idea about this?<br>
<br>
Thank you in advance!<br>
<br>
Sincerely,<br>
<font color="#888888">YIN<br>
</font><div><div></div><div class="h5"><br>
On Wed, Jul 8, 2009 at 4:15 PM, Xin Qian&lt;<a href="mailto:chianshin@gmail.com">chianshin@gmail.com</a>&gt; wrote:<br>
&gt; You can try to run sole MPI samples coming with OpenMPI first, make sure the<br>
&gt; OpenMPI is running all right.<br>
&gt;<br>
&gt; Thanks,<br>
&gt;<br>
&gt; Xin Qian<br>
&gt;<br>
&gt; On Wed, Jul 8, 2009 at 4:48 PM, Yin Feng &lt;<a href="mailto:yfeng1@tigers.lsu.edu">yfeng1@tigers.lsu.edu</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; I tried OpenMPI build PETSc and used mpirun provided by OpenMPI.<br>
&gt;&gt; But, when I check the load on each node, I found the master node take<br>
&gt;&gt; all the load<br>
&gt;&gt; and others are just free.<br>
&gt;&gt;<br>
&gt;&gt; Did you have any idea about this situation?<br>
&gt;&gt;<br>
&gt;&gt; Thanks in adcance!<br>
&gt;&gt;<br>
&gt;&gt; Sincerely,<br>
&gt;&gt; YIN<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Jul 8, 2009 at 1:26 PM, Satish Balay&lt;<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt; &gt; Perhaps you are using the wrong mpiexec or mpirun. You&#39;ll have to use<br>
&gt;&gt; &gt; the correspond mpiexec from MPI you&#39;ve used to build PETSc.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Or if the MPI has special instruction on usage - you should follow<br>
&gt;&gt; &gt; that [for ex: some clusters require extra options to mpiexec ]<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Satish<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Wed, 8 Jul 2009, Yin Feng wrote:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; I am a beginner of PETSc.<br>
&gt;&gt; &gt;&gt; I tried the PETSC example 5(ex5) with 4 nodes,<br>
&gt;&gt; &gt;&gt; However, it seems every nodes doing the exactly the same things and<br>
&gt;&gt; &gt;&gt; output the same results again and again. is this the problem of petsc<br>
&gt;&gt; &gt;&gt; or<br>
&gt;&gt; &gt;&gt; MPI installation?<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thank you in adcance!<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Sincerely,<br>
&gt;&gt; &gt;&gt; YIN<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; QIAN, Xin (<a href="http://pubpages.unh.edu/%7Exqian/" target="_blank">http://pubpages.unh.edu/~xqian/</a>)<br>
&gt; <a href="mailto:xqian@unh.edu">xqian@unh.edu</a> <a href="mailto:chianshin@gmail.com">chianshin@gmail.com</a><br>
&gt;<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>