<div dir="ltr"><div><div><div><div>Hi,<br><br></div>I just installed petsc-3.7.5 into my university cluster. When evaluating the computer system, PETSc reports "It appears you have 1 node(s)", I donot understand this, since the system is a multinodes system. Could you please explain this to me?<br><br></div>Thank you very much.<br><br></div>S. <br><br></div>Output: <br><div><div><div><div><div><div>=========================================<br>Now to evaluate the computer systems you plan use - do:<br>make PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 PETSC_ARCH=arch-linux-cxx-opt streams<br>[mpepvs@atlas7-c10 petsc-3.7.5]$ make PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 PETSC_ARCH=arch-linux-cxx-opt streams<br>cd src/benchmarks/streams; /usr/bin/gmake  --no-print-directory PETSC_DIR=/home/svu/mpepvs/petsc/petsc-3.7.5 PETSC_ARCH=arch-linux-cxx-opt streams<br>/home/svu/mpepvs/petsc/petsc-3.7.5/arch-linux-cxx-opt/bin/mpicxx -o MPIVersion.o -c -Wall -Wwrite-strings -Wno-strict-aliasing -Wno-unknown-pragmas -fvisibility=hidden -g -O      -I/home/svu/mpepvs/petsc/petsc-3.7.5/include -I/home/svu/mpepvs/petsc/petsc-3.7.5/arch-linux-cxx-opt/include    `pwd`/MPIVersion.c<br>Running streams with '/home/svu/mpepvs/petsc/petsc-3.7.5/arch-linux-cxx-opt/bin/mpiexec ' using 'NPMAX=12'<br>Number of MPI processes 1 Processor names  atlas7-c10<br>Triad:         9137.5025   Rate (MB/s)<br>Number of MPI processes 2 Processor names  atlas7-c10 atlas7-c10<br>Triad:         9707.2815   Rate (MB/s)<br>Number of MPI processes 3 Processor names  atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        13559.5275   Rate (MB/s)<br>Number of MPI processes 4 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        14193.0597   Rate (MB/s)<br>Number of MPI processes 5 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        14492.9234   Rate (MB/s)<br>Number of MPI processes 6 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15476.5912   Rate (MB/s)<br>Number of MPI processes 7 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15148.7388   Rate (MB/s)<br>Number of MPI processes 8 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15799.1290   Rate (MB/s)<br>Number of MPI processes 9 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15671.3104   Rate (MB/s)<br>Number of MPI processes 10 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15601.4754   Rate (MB/s)<br>Number of MPI processes 11 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15434.5790   Rate (MB/s)<br>Number of MPI processes 12 Processor names  atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10 atlas7-c10<br>Triad:        15134.1263   Rate (MB/s)<br>------------------------------------------------<br>np  speedup<br>1 1.0<br>2 1.06<br>3 1.48<br>4 1.55<br>5 1.59<br>6 1.69<br>7 1.66<br>8 1.73<br>9 1.72<br>10 1.71<br>11 1.69<br>12 1.66<br>Estimation of possible speedup of MPI programs based on Streams benchmark.<br>It appears you have 1 node(s)<br>Unable to plot speedup to a file<br>Unable to open matplotlib to plot speedup<br>[mpepvs@atlas7-c10 petsc-3.7.5]$<br>[mpepvs@atlas7-c10 petsc-3.7.5]$<br><br></div></div></div></div></div></div></div>