Thanks, Rajeev.<br><br>Is it the same case with MPICH1? The reason I need info about MPICH1 with SLURM is because we have a software (FastDL) which has been compiled with MPICH1. We have asked the vendor to give us the software recompiled with MPICH2, but honestly, we do not know any particular advantage using MPICH2 over MPICH1 (apart from the fact that MPICH1 isn&#39;t maintained anymore).<br>
<br>On a sidenote, how do I reply to the thread? I only get the daily digest in mail.<br><br>-Gauri.<br>----------<br><br><br><br>-------------<br><br>Message: 4<br>
Date: Mon, 23 Feb 2009 23:38:06 -0600<br>
From: &quot;Rajeev Thakur&quot; &lt;<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>&gt;<br>
Subject: Re: [mpich-discuss] HP-XC 3000 cluster issues<br>
To: &lt;<a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a>&gt;<br>
Message-ID: &lt;<div id=":x4" class="ArwC7c ckChnd">72376B2D10EC43F9A0A433C960F951B6@thakurlaptop&gt;<br>
Content-Type: text/plain; charset=&quot;us-ascii&quot;<br>
<br>
To run MPICH2 with SLURM, configure with the options &quot;--with-pmi=slurm<br>
--with-pm=no&quot; as described in the MPICH2 README file. Also see the<br>
instructions on how to run MPICH2 with SLURM at<br>
<a href="https://computing.llnl.gov/linux/slurm/quickstart.html" target="_blank">https://computing.llnl.gov/linux/slurm/quickstart.html</a> .<br>
<br>
Rajeev<br>
<br>
<br>
<br>
  _____<br>
<br>
From: <a href="mailto:mpich-discuss-bounces@mcs.anl.gov">mpich-discuss-bounces@mcs.anl.gov</a><br>
[mailto:<a href="mailto:mpich-discuss-bounces@mcs.anl.gov">mpich-discuss-bounces@mcs.anl.gov</a>] On Behalf Of Gauri Kulkarni<br>
Sent: Monday, February 23, 2009 11:19 PM<br>
To: <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
Subject: [mpich-discuss] HP-XC 3000 cluster issues<br>
<br>
<br>
Hi,<br>
<br>
I am a newbie to the MPI in general. Currently in our institute, we have a<br>
cluster of 16nodes-8processors. It is an HP-XC 3000 cluster which basically<br>
means, it&#39;s quite proprietary. It has its own MPI implementation - HP-MPI -<br>
in which, the parallelization is managed by SLURM (Simple Linux Utility for<br>
Resource Management). There is also a batch job scheduler - LSF (Load<br>
Sharing Facility) which works in tandem with SLURM to parallelize the batch<br>
jobs. We have installed both MPICH and MPICH2 and are testing it, but we are<br>
running into compatibility issues. For a simple helloworld.c program:<br>
1. For HPMPI: Compiled with mpicc of this implemetation and executed with<br>
its mpirun: mpirun -np 4 helloworld works correctly. For batch scheduling,<br>
we need to isse &quot;bsub -n4 [other options] mpirun -srun helloworld&quot; and it<br>
runs fine too. &quot;srun&quot; is SLURM utility that parallelizes the jobs.<br>
2. For MPICH and mPICH2: Again, compiled with mpicc of these respective<br>
implemetations and executed with their own mpirun:<br>
    i) mpirun -np 4 helloword : Works.<br>
   ii) mpirun -np 15 helloworld: The parallelization is limited to just a<br>
single node - that is 8 processes run first on 8 processors of a single node<br>
and then remaining ones.<br>
  iii) bsub -n4 [options] mpirun -srun hellowrold: Job terminated. srun<br>
option not recognized.<br>
   iv) bsub [options] mpirun -np 4 helloworld: Works<br>
   V) bsub [options] mpirun -np 15 helloworld: (Same as iii)<br>
<br>
Anybody aware of HP cluster issues with MPICH? Am I misinterpreting? Any<br>
help is appreciated.<br>
<br>
Gauri.<br>
---------</div>