<div dir="ltr">I'm having difficulty configuring petsc 3.4.5 on a CentOS 7.2 machine. I'm forced to use petsc 3.4.5 until the application (C++) can be upgraded.  We are restricted to EPEL packages for gcc, OpenMPI and all libraries.  <div><br></div><div>The only 'tweak' is that EPEL package compat-openmpi16 is used instead of openmpi, as the latter seems incompatible with petsc 3.4.2.<br><div><br></div><div>Petsc configures and builds fine via:</div><div><br></div><div><div>./configure --download-f2cblaslapack=1 --with-mpi-dir=/usr/lib64/compat-openmpi16 --with-debugging=1 --with-clanguage=cxx --with-fc=0</div></div><div><br></div><div>make PETSC_DIR=/opt/sfwmd_rsm/apps/petsc-3.4.5 PETSC_ARCH=arch-linux2-cxx-debug all<br></div><div><br></div><div>However, at test time:</div><div><br></div><div>make PETSC_DIR=/opt/sfwmd_rsm/apps/petsc-3.4.5 PETSC_ARCH=arch-linux2-cxx-debug test<br></div><div><br></div><div><div>Running test examples to verify correct installation</div><div>Using PETSC_DIR=/opt/sfwmd_rsm/apps/petsc-3.4.5 and PETSC_ARCH=arch-linux2-cxx-debug</div><div>/usr/bin/sh: line 20: 24136 Segmentation fault      /usr/lib64/compat-openmpi16/bin/mpiexec -n 1 ./ex19 -da_refine 3 -pc_type mg -ksp_type fgmres > ex19_1.tmp 2>&1</div><div>Possible error running C/C++ src/snes/examples/tutorials/ex19 with 1 MPI process</div><div>See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a></div><div>[snailkite:24136] *** Process received signal ***</div><div>[snailkite:24136] Signal: Segmentation fault (11)</div><div>[snailkite:24136] Signal code: Address not mapped (1)</div><div>[snailkite:24136] Failing at address: (nil)</div><div>[snailkite:24136] [ 0] /lib64/libpthread.so.0(+0xf100) [0x7ff020de8100]</div><div>[snailkite:24136] [ 1] /lib64/libc.so.6(+0x85346) [0x7ff020a9c346]</div><div>[snailkite:24136] [ 2] /lib64/libhwloc.so.5(+0x7ccb) [0x7ff021206ccb]</div><div>[snailkite:24136] [ 3] /lib64/libhwloc.so.5(hwloc__insert_object_by_cpuset+0xa7) [0x7ff021206e87]</div><div>[snailkite:24136] [ 4] /lib64/libhwloc.so.5(+0x2196e) [0x7ff02122096e]</div><div>[snailkite:24136] [ 5] /lib64/libhwloc.so.5(+0x22828) [0x7ff021221828]</div><div>[snailkite:24136] [ 6] /lib64/libhwloc.so.5(+0x228a3) [0x7ff0212218a3]</div><div>[snailkite:24136] [ 7] /lib64/libhwloc.so.5(hwloc_topology_load+0x13b) [0x7ff0212098bb]</div><div>[snailkite:24136] [ 8] /usr/lib64/compat-openmpi16/lib/libopen-rte.so.4(orte_odls_base_open+0x7ab) [0x7ff021fa6dbb]</div><div>[snailkite:24136] [ 9] /usr/lib64/compat-openmpi16/lib/openmpi/mca_ess_hnp.so(+0x2e54) [0x7ff01f233e54]</div><div>[snailkite:24136] [10] /usr/lib64/compat-openmpi16/lib/libopen-rte.so.4(orte_init+0x193) [0x7ff021f7dd83]</div><div>[snailkite:24136] [11] /usr/lib64/compat-openmpi16/bin/mpiexec() [0x403dd5]</div><div>[snailkite:24136] [12] /usr/lib64/compat-openmpi16/bin/mpiexec() [0x403430]</div><div>[snailkite:24136] [13] /lib64/libc.so.6(__libc_start_main+0xf5) [0x7ff020a38b15]</div><div>[snailkite:24136] [14] /usr/lib64/compat-openmpi16/bin/mpiexec() [0x403349]</div><div>[snailkite:24136] *** End of error message ***</div><div>/usr/bin/sh: line 20: 24139 Segmentation fault  </div></div><div><br></div></div><div>Under gdb:</div><div><br></div><div><div>Program received signal SIGSEGV, Segmentation fault.</div><div>0x00007ffff6647346 in __strcmp_sse2 () from /lib64/libc.so.6</div><div>(gdb) </div><div>(gdb) where</div><div>#0  0x00007ffff6647346 in __strcmp_sse2 () from /lib64/libc.so.6</div><div>#1  0x00007ffff6db1ccb in hwloc_obj_cmp () from /lib64/libhwloc.so.5</div><div>#2  0x00007ffff6db1e87 in hwloc__insert_object_by_cpuset () from /lib64/libhwloc.so.5</div><div>#3  0x00007ffff6dcb96e in summarize () from /lib64/libhwloc.so.5</div><div>#4  0x00007ffff6dcc828 in hwloc_look_x86 () from /lib64/libhwloc.so.5</div><div>#5  0x00007ffff6dcc8a3 in hwloc_x86_discover () from /lib64/libhwloc.so.5</div><div>#6  0x00007ffff6db48bb in hwloc_topology_load () from /lib64/libhwloc.so.5</div><div>#7  0x00007ffff7b51dbb in orte_odls_base_open ()</div><div>   from /usr/lib64/compat-openmpi16/lib/libopen-rte.so.4</div><div>#8  0x00007ffff4ddee54 in rte_init () from /usr/lib64/compat-openmpi16/lib/openmpi/mca_ess_hnp.so</div><div>#9  0x00007ffff7b28d83 in orte_init () from /usr/lib64/compat-openmpi16/lib/libopen-rte.so.4</div><div>#10 0x0000000000403dd5 in orterun ()</div><div>#11 0x0000000000403430 in main ()</div></div><div><br></div><div>Any suggestions are most welcome!</div></div>