You can try to run sole MPI samples coming with OpenMPI first, make sure the OpenMPI is running all right.<br><br>Thanks,<br><br>Xin Qian<br><br><div class="gmail_quote">On Wed, Jul 8, 2009 at 4:48 PM, Yin Feng <span dir="ltr">&lt;<a href="mailto:yfeng1@tigers.lsu.edu">yfeng1@tigers.lsu.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">I tried OpenMPI build PETSc and used mpirun provided by OpenMPI.<br>
But, when I check the load on each node, I found the master node take<br>
all the load<br>
and others are just free.<br>
<br>
Did you have any idea about this situation?<br>
<br>
Thanks in adcance!<br>
<br>
Sincerely,<br>
<font color="#888888">YIN<br>
</font><div><div></div><div class="h5"><br>
On Wed, Jul 8, 2009 at 1:26 PM, Satish Balay&lt;<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>&gt; wrote:<br>
&gt; Perhaps you are using the wrong mpiexec or mpirun. You&#39;ll have to use<br>
&gt; the correspond mpiexec from MPI you&#39;ve used to build PETSc.<br>
&gt;<br>
&gt; Or if the MPI has special instruction on usage - you should follow<br>
&gt; that [for ex: some clusters require extra options to mpiexec ]<br>
&gt;<br>
&gt; Satish<br>
&gt;<br>
&gt; On Wed, 8 Jul 2009, Yin Feng wrote:<br>
&gt;<br>
&gt;&gt; I am a beginner of PETSc.<br>
&gt;&gt; I tried the PETSC example 5(ex5) with 4 nodes,<br>
&gt;&gt; However, it seems every nodes doing the exactly the same things and<br>
&gt;&gt; output the same results again and again. is this the problem of petsc or<br>
&gt;&gt; MPI installation?<br>
&gt;&gt;<br>
&gt;&gt; Thank you in adcance!<br>
&gt;&gt;<br>
&gt;&gt; Sincerely,<br>
&gt;&gt; YIN<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>QIAN, Xin (<a href="http://pubpages.unh.edu/~xqian/">http://pubpages.unh.edu/~xqian/</a>)<br><a href="mailto:xqian@unh.edu">xqian@unh.edu</a> <a href="mailto:chianshin@gmail.com">chianshin@gmail.com</a><br>