Hi,<br><br>I am using MPICH2-1.0.7 (I cannot go to 1.0.8 right now) which is configured to be used with SLURM. That is, the process manager is SLURM and NOT mpd. When I submit my job through bsub (bsub [options] srun ./helloworld.mympi), it works perfectly. I cannot use mpiexec as it is not the one spawning jobs, I must use srun. My question is, can I still use mpiexec from command-line? Well.. I tried. Here is the output:<br>

<br>mpiexec -n 2 ./helloworld.mympi<br>mpiexec_n53: cannot connect to local mpd (/tmp/mpd2.console_cgaurik); possible causes:<br>  1. no mpd is running on this host<br>  2. an mpd is running but was started without a &quot;console&quot; (-n option)<br>

In case 1, you can start an mpd on this host with:<br>    mpd &amp;<br>and you will be able to run jobs just on this host.<br>For more details on starting mpds on a set of hosts, see<br>the MPICH2 Installation Guide.<br>
<br>
Then:<br><br>mpd &amp;<br>mpiexec -n 2 ./helloworld.mympi<br><br><b>Hello world! I&#39;m 0 of 2 on n53</b><br>Fatal error in MPI_Finalize: Other MPI error, error stack:<br>MPI_Finalize(255)...................: MPI_Finalize failed<br>

MPI_Finalize(154)...................:<br>MPID_Finalize(94)...................:<br>MPI_Barrier(406)....................: MPI_Barrier(comm=0x44000002) failed<br>MPIR_Barrier(77)....................:<br>MPIC_Sendrecv(120)..................:<br>

MPID_Isend(103).....................: failure occurred while attempting to send an eager message<br>MPIDI_CH3_iSend(172)................:<br>MPIDI_CH3I_VC_post_sockconnect(1090):<br>MPIDI_PG_SetConnInfo(615)...........: PMI_KVS_Get failedFatal error in MPI_Finalize: Other MPI error, error stack:<br>

MPI_Finalize(255)...................: MPI_Finalize failed<br>MPI_Finalize(154)...................:<br>MPID_Finalize(94)...................:<br>MPI_Barrier(406)....................: MPI_Barrier(comm=0x44000002) failed<br>
MPIR_Barrier(77)....................:<br>
MPIC_Sendrecv(120)..................:<br>MPID_Isend(103).....................: failure occurred while attempting to send an eager message<br>MP<b>Hello world! I&#39;m 1 of 2 on n53</b><br>IDI_CH3_iSend(172)................:<br>

MPIDI_CH3I_VC_post_sockconnect(1090):<br>MPIDI_PG_SetConnInfo(615)...........: PMI_KVS_Get failed<br><br>The bold text shows that the job gets executed but there is a lot of other garbage. It seems to me that I can either configure MPICH2 to be used with cluster job scheduler or to be used from command line. I cannot have both.<br>

<br> Am I right?<br><br>-Gauri.<br>----------<br>