<div dir="ltr">I was wondering this myself.  On the BlueGene line the MPI installation is based on MPICH, so the mpi* compilers behave as you&#39;d expect on any other MPICH install.  I&#39;m not familiar with the voodoo in the IBM-HPC toolkit or the intricacies of this particular machine, but since it&#39;s obviously being administered by *somebody* (see the modules in Leo&#39;s environment), I&#39;d expect the administrators to have gotten it right.<div>
<br></div><div>A<br><br><div class="gmail_quote">On Thu, Feb 10, 2011 at 8:58 PM, Barry Smith <span dir="ltr">&lt;<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br>
  Aron,<br>
<br>
   Shouldn&#39;t the mpcc and mpfort manage providing the include directories and libraries automatically (like everyone elses mpicc etc does?) Seems very cumbersome that users need to know they strange directories and include them themselves? A real step backwards in usability?<br>

<font color="#888888"><br>
    Barry<br>
</font><div><div></div><div class="h5"><br>
On Feb 10, 2011, at 7:44 AM, Aron Ahmadia wrote:<br>
<br>
&gt; add opt/ibmhpc/ppe.poe/include/ibmmpi/ to your ./configure options like this:<br>
&gt;<br>
&gt; --with-mpi-include=/opt/ibmhpc/ppe.poe/include/ibmmpi/<br>
&gt;<br>
&gt; You may have to manually add the MPI libraries and their path as well, since BuildSystem tends to like these packaged together.  Ping the list back if you can&#39;t figure it out from there.<br>
&gt;<br>
&gt; -Aron<br>
&gt;<br>
&gt; On Thu, Feb 10, 2011 at 3:23 PM, <a href="mailto:lvankampenhout@gmail.com">lvankampenhout@gmail.com</a> &lt;<a href="mailto:lvankampenhout@gmail.com">lvankampenhout@gmail.com</a>&gt; wrote:<br>
&gt; Hi all, i&#39;m having this error when configuring the latest petsc-dev on an IBM PPC system.<br>
&gt;<br>
&gt;<br>
&gt; TESTING: CxxMPICheck from config.packages.MPI(/gpfs/h01/vkampenh/install/petsc-dev/config/BuildSystem/config/packages/MPI.py:611)<br>
&gt; *******************************************************************************<br>
&gt;          UNABLE to CONFIGURE with GIVEN OPTIONS    (see configure.log for details):<br>
&gt; -------------------------------------------------------------------------------<br>
&gt; C++ error! mpi.h could not be located at: []<br>
&gt; *******************************************************************************<br>
&gt;<br>
&gt;<br>
&gt; My configure options: ./configure --with-batch=1 --with-mpi-shared=0 --with-endian=big --with-memcmp-ok --sizeof-void-p=8 --sizeof-char=1 --sizeof-short=2 --sizeof-int=4 --sizeof-long=8 --sizeof-size-t=8 --sizeof-long-long=8 --sizeof-float=4 --sizeof-double=8 --bits-per-byte=8 --sizeof-MPI-Comm=8 --sizeof-MPI-Fint=4 --have-mpi-long-double=1 --with-f90-interface=rs6000 --with-cc=&quot;mpcc -compiler xlc_r -q64&quot; --with-fc=&quot;mpfort -compiler xlf_r -q64&quot; --FFLAGS=&quot;-O3 -qhot -qstrict -qarch=auto -qtune=auto&quot; --CFLAGS=&quot;-O3 -qhot -qstrict -qarch=auto -qtune=auto&quot; --LIBS=-lmass_64 --with-ar=/usr/bin/ar --prefix=/sara/sw/petsc/3.0.0-p8/real --with-scalar-type=real PETSC_ARCH=linux-ibm-pwr6-xlf-real-64 --with-shared=0 -with-debugging=0 --download-ml --download-hypre<br>

&gt;<br>
&gt;<br>
&gt; vkampenh@p6012:~/install/petsc-dev&gt; module list<br>
&gt; Currently Loaded Modulefiles:<br>
&gt;  1) compilerwrappers/yes  4) c++/ibm/11.1          7) upc/ibm/11.1<br>
&gt;  2) java/ibm/1.5          5) fortran/ibm/13.1<br>
&gt;  3) c/ibm/11.1            6) sara<br>
&gt;<br>
&gt;<br>
&gt; vkampenh@p6012:~/install/petsc-dev&gt; locate mpi.h<br>
&gt; /opt/ibm/java2-ppc64-50/include/jvmpi.h<br>
&gt; /opt/ibmhpc/ppe.poe/include/ibmmpi/mpi.h<br>
&gt; /opt/mpich/include/mpi.h<br>
&gt; /usr/include/boost/mpi.hpp<br>
&gt; /usr/lib64/gcc/powerpc64-suse-linux/4.3/include/jvmpi.h<br>
&gt; /usr/lib64/mpi/gcc/openmpi/include/mpi.h<br>
&gt; /usr/lib64/mpi/gcc/openmpi/include/openmpi/ompi/mpi/f77/prototypes_mpi.h<br>
&gt; /usr/src/linux-2.6.32.27-0.2-obj/ppc64/default/include/config/usb/serial/siemens/mpi.h<br>
&gt; /usr/src/linux-2.6.32.27-0.2-obj/ppc64/ppc64/include/config/usb/serial/siemens/mpi.h<br>
&gt; /usr/src/linux-2.6.32.27-0.2-obj/ppc64/trace/include/config/usb/serial/siemens/mpi.h<br>
&gt; /usr/src/linux-2.6.32.27-0.2/drivers/message/fusion/lsi/mpi.h<br>
&gt;<br>
&gt;<br>
&gt; Is there an easy way to add the IBMHPC/PPE.POE directory to the configure list, so that it will be recognized? The machine uses LoadLeveler schedule system, which handles the MPI settings.<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Leo<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
</div></div></blockquote></div><br></div></div>