<div dir="ltr"><div><div><div><b>Hi,<br><br></b></div><b>I can configure now, but fail when testing:</b><br><br>[mpepvs@atlas7-c10 petsc-3.7.5]$ make PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 PETSC_ARCH=arch-linux-cxx-opt test   Running test examples to verify correct installation<br>Using PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 and PETSC_ARCH=arch-linux-cxx-opt<br>Possible error running C/C++ src/snes/examples/tutorials/ex19 with 1 MPI process<br>See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br>mpiexec_atlas7-c10: cannot connect to local mpd (/tmp/mpd2.console_mpepvs); possible causes:<br>  1. no mpd is running on this host<br>  2. an mpd is running but was started without a "console" (-n option)<br>Possible error running C/C++ src/snes/examples/tutorials/ex19 with 2 MPI processes<br>See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br>mpiexec_atlas7-c10: cannot connect to local mpd (/tmp/mpd2.console_mpepvs); possible causes:<br>  1. no mpd is running on this host<br>  2. an mpd is running but was started without a "console" (-n option)<br>Possible error running Fortran example src/snes/examples/tutorials/ex5f with 1 MPI process<br>See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br>mpiexec_atlas7-c10: cannot connect to local mpd (/tmp/mpd2.console_mpepvs); possible causes:<br>  1. no mpd is running on this host<br>  2. an mpd is running but was started without a "console" (-n option)<br>Completed test examples<br>=========================================<br>Now to evaluate the computer systems you plan use - do:<br>make PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 PETSC_ARCH=arch-linux-cxx-opt streams<br><br><br></div><b>Please help on this.<br><br></b></div><b>Many thanks!</b><br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Apr 20, 2017 at 2:02 AM, Satish Balay <span dir="ltr"><<a href="mailto:balay@mcs.anl.gov" target="_blank">balay@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Sorry - should have mentioned:<br>
<br>
do 'rm -rf arch-linux-cxx-opt' and rerun configure again.<br>
<br>
The mpich install from previous build [that is currently in arch-linux-cxx-opt/]<br>
is conflicting with --with-mpi-dir=/app1/centos6.<wbr>3/gnu/mvapich2-1.9/<br>
<div class="HOEnZb"><div class="h5"><br>
Satish<br>
<br>
<br>
On Wed, 19 Apr 2017, Pham Pham wrote:<br>
<br>
> I reconfigured PETSs with installed MPI, however, I got serous error:<br>
><br>
> **************************<wbr>ERROR*************************<wbr>************<br>
>   Error during compile, check arch-linux-cxx-opt/lib/petsc/<wbr>conf/make.log<br>
>   Send it and arch-linux-cxx-opt/lib/petsc/<wbr>conf/configure.log to<br>
> <a href="mailto:petsc-maint@mcs.anl.gov">petsc-maint@mcs.anl.gov</a><br>
> ******************************<wbr>******************************<wbr>********<br>
><br>
> Please explain what is happening?<br>
><br>
> Thank you very much.<br>
><br>
><br>
><br>
><br>
> On Wed, Apr 19, 2017 at 11:43 PM, Satish Balay <<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>> wrote:<br>
><br>
> > Presumably your cluster already has a recommended MPI to use [which is<br>
> > already installed. So you should use that - instead of<br>
> > --download-mpich=1<br>
> ><br>
> > Satish<br>
> ><br>
> > On Wed, 19 Apr 2017, Pham Pham wrote:<br>
> ><br>
> > > Hi,<br>
> > ><br>
> > > I just installed petsc-3.7.5 into my university cluster. When evaluating<br>
> > > the computer system, PETSc reports "It appears you have 1 node(s)", I<br>
> > donot<br>
> > > understand this, since the system is a multinodes system. Could you<br>
> > please<br>
> > > explain this to me?<br>
> > ><br>
> > > Thank you very much.<br>
> > ><br>
> > > S.<br>
> > ><br>
> > > Output:<br>
> > > ==============================<wbr>===========<br>
> > > Now to evaluate the computer systems you plan use - do:<br>
> > > make PETSC_DIR=/home/svu/mpepvs/<wbr>petsc/petsc-3.7.5<br>
> > > PETSC_ARCH=arch-linux-cxx-opt streams<br>
> > > [mpepvs@atlas7-c10 petsc-3.7.5]$ make<br>
> > > PETSC_DIR=/home/svu/mpepvs/<wbr>petsc/petsc-3.7.5<br>
> > PETSC_ARCH=arch-linux-cxx-opt<br>
> > > streams<br>
> > > cd src/benchmarks/streams; /usr/bin/gmake  --no-print-directory<br>
> > > PETSC_DIR=/home/svu/mpepvs/<wbr>petsc/petsc-3.7.5<br>
> > PETSC_ARCH=arch-linux-cxx-opt<br>
> > > streams<br>
> > > /home/svu/mpepvs/petsc/petsc-<wbr>3.7.5/arch-linux-cxx-opt/bin/<wbr>mpicxx -o<br>
> > > MPIVersion.o -c -Wall -Wwrite-strings -Wno-strict-aliasing<br>
> > > -Wno-unknown-pragmas -fvisibility=hidden -g -O<br>
> > > -I/home/svu/mpepvs/petsc/<wbr>petsc-3.7.5/include<br>
> > > -I/home/svu/mpepvs/petsc/<wbr>petsc-3.7.5/arch-linux-cxx-<wbr>opt/include<br>
> > > `pwd`/MPIVersion.c<br>
> > > Running streams with<br>
> > > '/home/svu/mpepvs/petsc/petsc-<wbr>3.7.5/arch-linux-cxx-opt/bin/<wbr>mpiexec '<br>
> > using<br>
> > > 'NPMAX=12'<br>
> > > Number of MPI processes 1 Processor names  atlas7-c10<br>
> > > Triad:         9137.5025   Rate (MB/s)<br>
> > > Number of MPI processes 2 Processor names  atlas7-c10 atlas7-c10<br>
> > > Triad:         9707.2815   Rate (MB/s)<br>
> > > Number of MPI processes 3 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > Triad:        13559.5275   Rate (MB/s)<br>
> > > Number of MPI processes 4 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10<br>
> > > Triad:        14193.0597   Rate (MB/s)<br>
> > > Number of MPI processes 5 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10 atlas7-c10<br>
> > > Triad:        14492.9234   Rate (MB/s)<br>
> > > Number of MPI processes 6 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15476.5912   Rate (MB/s)<br>
> > > Number of MPI processes 7 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15148.7388   Rate (MB/s)<br>
> > > Number of MPI processes 8 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15799.1290   Rate (MB/s)<br>
> > > Number of MPI processes 9 Processor names  atlas7-c10 atlas7-c10<br>
> > atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15671.3104   Rate (MB/s)<br>
> > > Number of MPI processes 10 Processor names  atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10<br>
> > > Triad:        15601.4754   Rate (MB/s)<br>
> > > Number of MPI processes 11 Processor names  atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15434.5790   Rate (MB/s)<br>
> > > Number of MPI processes 12 Processor names  atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>
> > > Triad:        15134.1263   Rate (MB/s)<br>
> > > ------------------------------<wbr>------------------<br>
> > > np  speedup<br>
> > > 1 1.0<br>
> > > 2 1.06<br>
> > > 3 1.48<br>
> > > 4 1.55<br>
> > > 5 1.59<br>
> > > 6 1.69<br>
> > > 7 1.66<br>
> > > 8 1.73<br>
> > > 9 1.72<br>
> > > 10 1.71<br>
> > > 11 1.69<br>
> > > 12 1.66<br>
> > > Estimation of possible speedup of MPI programs based on Streams<br>
> > benchmark.<br>
> > > It appears you have 1 node(s)<br>
> > > Unable to plot speedup to a file<br>
> > > Unable to open matplotlib to plot speedup<br>
> > > [mpepvs@atlas7-c10 petsc-3.7.5]$<br>
> > > [mpepvs@atlas7-c10 petsc-3.7.5]$<br>
> > ><br>
> ><br>
> ><br>
><br>
<br>
</div></div></blockquote></div><br></div>