<div dir="ltr">No dbg version complied now, but will do now.<div><br></div><div>A first look with -info shows something is wrong when SetUpPC for superLU_dist:</div><div><br></div><div>







<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850688 -2080374782</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850688 -2080374782</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850688 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850688 -2080374782</span></p>
<p class=""><span class="">[0] MatStashScatterBegin_Private(): No of messages: 0 </span></p>
<p class=""><span class="">[0] MatAssemblyBegin_MPIAIJ(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[1] MatStashScatterBegin_Private(): No of messages: 1 </span></p>
<p class=""><span class="">[1] MatStashScatterBegin_Private(): Mesg_to: 0: size: 28160 bytes</span></p>
<p class=""><span class="">[1] MatAssemblyBegin_MPIAIJ(): Stash has 1760 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[3] MatStashScatterBegin_Private(): No of messages: 2 </span></p>
<p class=""><span class="">[3] MatStashScatterBegin_Private(): Mesg_to: 0: size: 22528 bytes</span></p>
<p class=""><span class="">[2] MatStashScatterBegin_Private(): No of messages: 2 </span></p>
<p class=""><span class="">[2] MatStashScatterBegin_Private(): Mesg_to: 0: size: 1056 bytes</span></p>
<p class=""><span class="">[3] MatStashScatterBegin_Private(): Mesg_to: 2: size: 18656 bytes</span></p>
<p class=""><span class="">[3] MatAssemblyBegin_MPIAIJ(): Stash has 2574 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[2] MatStashScatterBegin_Private(): Mesg_to: 1: size: 36960 bytes</span></p>
<p class=""><span class="">[2] MatAssemblyBegin_MPIAIJ(): Stash has 2376 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Matrix size: 504 X 504; storage space: 0 unneeded,17634 used</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[3] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 504) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[3] MatSeqAIJCheckInode(): Found 278 nodes of 504. Limit used: 5. Using Inode routines</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Matrix size: 495 X 495; storage space: 355 unneeded,17115 used</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Matrix size: 605 X 605; storage space: 1017 unneeded,22159 used</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[2] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 495) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[0] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 605) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Matrix size: 574 X 574; storage space: 795 unneeded,20096 used</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[1] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 574) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatSeqAIJCheckInode(): Found 261 nodes of 495. Limit used: 5. Using Inode routines</span></p>
<p class=""><span class="">[0] MatSeqAIJCheckInode(): Found 327 nodes of 605. Limit used: 5. Using Inode routines</span></p>
<p class=""><span class="">[1] MatSeqAIJCheckInode(): Found 298 nodes of 574. Limit used: 5. Using Inode routines</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[0] VecScatterCreateCommon_PtoS(): Using blocksize 1 scatter</span></p>
<p class=""><span class="">[0] VecScatterCreate(): General case: MPI to Seq</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Matrix size: 495 X 146; storage space: 15 unneeded,1754 used</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 40</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Matrix size: 605 X 181; storage space: 30 unneeded,1703 used</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 37</span></p>
<p class=""><span class="">[0] MatCheckCompressedRow(): Found the ratio (num_zerorows 512)/(num_localrows 605) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Matrix size: 574 X 140; storage space: 15 unneeded,1945 used</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 31</span></p>
<p class=""><span class="">[1] MatCheckCompressedRow(): Found the ratio (num_zerorows 409)/(num_localrows 574) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatCheckCompressedRow(): Found the ratio (num_zerorows 378)/(num_localrows 495) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Matrix size: 504 X 78; storage space: 0 unneeded,1378 used</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 23</span></p>
<p class=""><span class="">[3] MatCheckCompressedRow(): Found the ratio (num_zerorows 378)/(num_localrows 504) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[0] MatStashScatterBegin_Private(): No of messages: 0 </span></p>
<p class=""><span class="">[0] MatAssemblyBegin_MPIAIJ(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Matrix size: 605 X 605; storage space: 0 unneeded,22159 used</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[1] MatStashScatterBegin_Private(): No of messages: 0 </span></p>
<p class=""><span class="">[1] MatAssemblyBegin_MPIAIJ(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 605) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Matrix size: 605 X 181; storage space: 0 unneeded,1703 used</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[0] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 37</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Matrix size: 574 X 574; storage space: 0 unneeded,20096 used</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[1] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 574) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatStashScatterBegin_Private(): No of messages: 0 </span></p>
<p class=""><span class="">[2] MatAssemblyBegin_MPIAIJ(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Matrix size: 495 X 495; storage space: 0 unneeded,17115 used</span></p>
<p class=""><span class="">[3] MatStashScatterBegin_Private(): No of messages: 0 </span></p>
<p class=""><span class="">[3] MatAssemblyBegin_MPIAIJ(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Matrix size: 504 X 504; storage space: 0 unneeded,17634 used</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[0] MatCheckCompressedRow(): Found the ratio (num_zerorows 512)/(num_localrows 605) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Matrix size: 574 X 140; storage space: 0 unneeded,1945 used</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[1] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 31</span></p>
<p class=""><span class="">[1] MatCheckCompressedRow(): Found the ratio (num_zerorows 409)/(num_localrows 574) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 59</span></p>
<p class=""><span class="">[2] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 495) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Matrix size: 495 X 146; storage space: 0 unneeded,1754 used</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[2] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 40</span></p>
<p class=""><span class="">[3] MatCheckCompressedRow(): Found the ratio (num_zerorows 0)/(num_localrows 504) < 0.6. Do not use CompressedRow routines.</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Matrix size: 504 X 78; storage space: 0 unneeded,1378 used</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Number of mallocs during MatSetValues() is 0</span></p>
<p class=""><span class="">[3] MatAssemblyEnd_SeqAIJ(): Maximum nonzeros in any row is 23</span></p>
<p class=""><span class="">[3] MatCheckCompressedRow(): Found the ratio (num_zerorows 378)/(num_localrows 504) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[2] MatCheckCompressedRow(): Found the ratio (num_zerorows 378)/(num_localrows 495) > 0.6. Use CompressedRow routines.</span></p>
<p class=""><span class="">[0] VecAssemblyBegin_MPI(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] VecAssemblyBegin_MPI(): Block-Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] VecAssemblyBegin_MPI(): Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] VecAssemblyBegin_MPI(): Block-Stash has 0 entries, uses 0 mallocs.</span></p>
<p class=""><span class="">[0] PCSetUp(): Setting up PC for first time</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[1] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[2] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[3] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374780</span></p>
<p class=""><span class="">[0] PetscCommDuplicate(): Using internal PETSc communicator 1140850689 -2080374777</span></p>
<p class=""><span class="">[1]PETSC ERROR: ------------------------------------------------------------------------</span></p>
<p class=""><span class="">[1]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range</span></p>
<p class=""><span class="">[1]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</span></p>
<p class=""><span class="">[1]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a></span></p>
<p class=""><span class="">[1]PETSC ERROR: or try <a href="http://valgrind.org">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</span></p>
<p class=""><span class="">[1]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run </span></p>
<p class=""><span class="">[1]PETSC ERROR: to get more information on the crash.</span></p>
<p class=""><span class="">[1]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------</span></p>
<p class=""><span class="">[1]PETSC ERROR: Signal received</span></p>
<p class=""><span class="">[1]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.</span></p>
<p class=""><span class="">[1]PETSC ERROR: Petsc Release Version 3.6.3, unknown </span></p>
<p class=""><span class="">[1]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named <a href="http://mcswl105.mcs.anl.gov">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 17:26:55 2016</span></p>
<p class=""><span class="">[1]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich --download-fblaslapack --download-scalapack --download-mumps --download-superlu_dist --download-hypre --download-ml --download-metis --download-parmetis --download-triangle --download-chaco --download-elemental --with-debugging=0</span></p>
<p class=""><span class="">[1]PETSC ERROR: #1 User provided function() line 0 in  unknown file</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 1</span></p>
<p class=""><span class="">[cli_1]: aborting job:</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 1</span></p>
<p class=""><span class="">[3]PETSC ERROR: ------------------------------------------------------------------------</span></p>
<p class=""><span class="">[3]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range</span></p>
<p class=""><span class="">[3]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</span></p>
<p class=""><span class="">[3]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a></span></p>
<p class=""><span class="">[3]PETSC ERROR: or try <a href="http://valgrind.org">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</span></p>
<p class=""><span class="">[3]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run </span></p>
<p class=""><span class="">[3]PETSC ERROR: to get more information on the crash.</span></p>
<p class=""><span class="">[3]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------</span></p>
<p class=""><span class="">[3]PETSC ERROR: Signal received</span></p>
<p class=""><span class="">[3]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.</span></p>
<p class=""><span class="">[3]PETSC ERROR: Petsc Release Version 3.6.3, unknown </span></p>
<p class=""><span class="">[3]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named <a href="http://mcswl105.mcs.anl.gov">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 17:26:55 2016</span></p>
<p class=""><span class="">[3]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich --download-fblaslapack --download-scalapack --download-mumps --download-superlu_dist --download-hypre --download-ml --download-metis --download-parmetis --download-triangle --download-chaco --download-elemental --with-debugging=0</span></p>
<p class=""><span class="">[3]PETSC ERROR: #1 User provided function() line 0 in  unknown file</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 3</span></p>
<p class=""><span class="">[cli_3]: aborting job:</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 3</span></p>
<p class=""><span class="">[0]PETSC ERROR: ------------------------------------------------------------------------</span></p>
<p class=""><span class="">[0]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range</span></p>
<p class=""><span class="">[0]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</span></p>
<p class=""><span class="">[0]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a></span></p>
<p class=""><span class="">[0]PETSC ERROR: or try <a href="http://valgrind.org">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</span></p>
<p class=""><span class="">[0]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run </span></p>
<p class=""><span class="">[0]PETSC ERROR: to get more information on the crash.</span></p>
<p class=""><span class="">[0]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------</span></p>
<p class=""><span class="">[0]PETSC ERROR: Signal received</span></p>
<p class=""><span class="">[0]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.</span></p>
<p class=""><span class="">[0]PETSC ERROR: Petsc Release Version 3.6.3, unknown </span></p>
<p class=""><span class="">[0]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named <a href="http://mcswl105.mcs.anl.gov">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 17:26:55 2016</span></p>
<p class=""><span class="">[0]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich --download-fblaslapack --download-scalapack --download-mumps --download-superlu_dist --download-hypre --download-ml --download-metis --download-parmetis --download-triangle --download-chaco --download-elemental --with-debugging=0</span></p>
<p class=""><span class="">[0]PETSC ERROR: #1 User provided function() line 0 in  unknown file</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 0</span></p>
<p class=""><span class="">[cli_0]: aborting job:</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 0</span></p>
<p class=""><span class="">[2]PETSC ERROR: ------------------------------------------------------------------------</span></p>
<p class=""><span class="">[2]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range</span></p>
<p class=""><span class="">[2]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</span></p>
<p class=""><span class="">[2]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a></span></p>
<p class=""><span class="">[2]PETSC ERROR: or try <a href="http://valgrind.org">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</span></p>
<p class=""><span class="">[2]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run </span></p>
<p class=""><span class="">[2]PETSC ERROR: to get more information on the crash.</span></p>
<p class=""><span class="">[2]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------</span></p>
<p class=""><span class="">[2]PETSC ERROR: Signal received</span></p>
<p class=""><span class="">[2]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.</span></p>
<p class=""><span class="">[2]PETSC ERROR: Petsc Release Version 3.6.3, unknown </span></p>
<p class=""><span class="">[2]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named <a href="http://mcswl105.mcs.anl.gov">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 17:26:55 2016</span></p>
<p class=""><span class="">[2]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich --download-fblaslapack --download-scalapack --download-mumps --download-superlu_dist --download-hypre --download-ml --download-metis --download-parmetis --download-triangle --download-chaco --download-elemental --with-debugging=0</span></p>
<p class=""><span class="">[2]PETSC ERROR: #1 User provided function() line 0 in  unknown file</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 2</span></p>
<p class=""><span class="">[cli_2]: aborting job:</span></p>
<p class=""><span class="">application called MPI_Abort(MPI_COMM_WORLD, 59) - process 2</span></p></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Apr 1, 2016 at 5:13 PM, Satish Balay <span dir="ltr"><<a href="mailto:balay@mcs.anl.gov" target="_blank">balay@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">please run the code in debugger and obtain a stack trace.<br>
<span class="HOEnZb"><font color="#888888"><br>
Satish<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On Fri, 1 Apr 2016, Xujun Zhao wrote:<br>
<br>
> Hi all,<br>
><br>
> Are there any changes on the PETSc direct solver interface, for example,<br>
> with superLU_dist and MUMPS. I found that my libMesh code failed with both<br>
> of them, but still works with iterative solver (GMRES by default). Thanks a<br>
> lot.<br>
><br>
> Best,<br>
> Xujun<br>
><br>
> --------------------------------------------------------------------------------------------------------------<br>
><br>
> [0]PETSC ERROR:<br>
> ------------------------------------------------------------------------<br>
><br>
> [0]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation,<br>
> probably memory access out of range<br>
><br>
> [0]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger<br>
><br>
> [0]PETSC ERROR: or see<br>
> <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind" rel="noreferrer" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a><br>
><br>
> [0]PETSC ERROR: or try <a href="http://valgrind.org" rel="noreferrer" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X<br>
> to find memory corruption errors<br>
><br>
> [0]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and<br>
> run<br>
><br>
> [0]PETSC ERROR: to get more information on the crash.<br>
><br>
> [0]PETSC ERROR: --------------------- Error Message<br>
> --------------------------------------------------------------<br>
><br>
> [0]PETSC ERROR: Signal received<br>
><br>
> [0]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html" rel="noreferrer" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for<br>
> trouble shooting.<br>
><br>
> [0]PETSC ERROR: Petsc Release Version 3.6.3, unknown<br>
><br>
> [0]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named<br>
> <a href="http://mcswl105.mcs.anl.gov" rel="noreferrer" target="_blank">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 15:57:40 2016<br>
><br>
> [0]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++<br>
> --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich<br>
> --download-fblaslapack --download-scalapack --download-mumps<br>
> --download-superlu_dist --download-hypre --download-ml --download-metis<br>
> --download-parmetis --download-triangle --download-chaco<br>
> --download-elemental --with-debugging=0<br>
><br>
> [0]PETSC ERROR: #1 User provided function() line 0 in  unknown file<br>
><br>
> application called MPI_Abort(MPI_COMM_WORLD, 59) - process 0<br>
><br>
> [cli_0]: aborting job:<br>
><br>
> application called MPI_Abort(MPI_COMM_WORLD, 59) - process 0<br>
><br>
> [1]PETSC ERROR:<br>
> ------------------------------------------------------------------------<br>
><br>
> [1]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation,<br>
> probably memory access out of range<br>
><br>
> [1]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger<br>
><br>
> [1]PETSC ERROR: or see<br>
> <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind" rel="noreferrer" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a><br>
><br>
> [1]PETSC ERROR: or try <a href="http://valgrind.org" rel="noreferrer" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X<br>
> to find memory corruption errors<br>
><br>
> [1]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and<br>
> run<br>
><br>
> [1]PETSC ERROR: to get more information on the crash.<br>
><br>
> [1]PETSC ERROR: --------------------- Error Message<br>
> --------------------------------------------------------------<br>
><br>
> [1]PETSC ERROR: Signal received<br>
><br>
> [1]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html" rel="noreferrer" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for<br>
> trouble shooting.<br>
><br>
> [1]PETSC ERROR: Petsc Release Version 3.6.3, unknown<br>
><br>
> [1]PETSC ERROR: ./example-opt on a arch-darwin-c-opt named<br>
> <a href="http://mcswl105.mcs.anl.gov" rel="noreferrer" target="_blank">mcswl105.mcs.anl.gov</a> by xzhao Fri Apr  1 15:57:40 2016<br>
><br>
> [1]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++<br>
> --with-fc=gfortran --with-cxx-dialect=C++11 --download-mpich<br>
> --download-fblaslapack --download-scalapack --download-mumps<br>
> --download-superlu_dist --download-hypre --download-ml --download-metis<br>
> --download-parmetis --download-triangle --download-chaco<br>
> --download-elemental --with-debugging=0<br>
><br>
> [1]PETSC ERROR: #1 User provided function() line 0 in  unknown file<br>
><br>
> application called MPI_Abort(MPI_COMM_WORLD, 59) - process 1<br>
><br>
> [cli_1]: aborting job:<br>
><br>
> application called MPI_Abort(MPI_COMM_WORLD, 59) - process 1<br>
><br>
><br>
>  -------------------------------------------------------------------------------------------------------------------<br>
><br>
> | Processor id:   0<br>
>                                         |<br>
><br>
> | Num Processors: 4<br>
>                                         |<br>
><br>
> | Time:           Fri Apr  1 15:57:40 2016<br>
>                                         |<br>
><br>
> | OS:             Darwin<br>
>                                         |<br>
><br>
> | HostName:       <a href="http://mcswl105.mcs.anl.gov" rel="noreferrer" target="_blank">mcswl105.mcs.anl.gov</a><br>
>                                         |<br>
><br>
> | OS Release:     15.2.0<br>
>                                         |<br>
><br>
> | OS Version:     Darwin Kernel Version 15.2.0: Fri Nov 13 19:56:56 PST<br>
> 2015; root:xnu-3248.20.55~2/RELEASE_X86_64  |<br>
><br>
> | Machine:        x86_64<br>
>                                         |<br>
><br>
> | Username:       xzhao<br>
>                                         |<br>
><br>
> | Configuration:  ./configure<br>
> '--prefix=/Users/xzhao/software/libmesh/libmesh-dev'<br>
>           |<br>
><br>
> |  '--with-methods=opt'<br>
>                                         |<br>
><br>
> |  '--enable-everything'<br>
>                                         |<br>
><br>
> |  '--enable-parmesh'<br>
>                                         |<br>
><br>
> |  '--disable-strict-lgpl'<br>
>                                         |<br>
><br>
> |  '--with-vtk-include=/usr/local/include/vtk-6.2'<br>
>                                         |<br>
><br>
> |  '--with-vtk-lib=/usr/local/lib'<br>
>                                         |<br>
><br>
> |  'PETSC_DIR=/Users/xzhao/software/petsc/petsc-dev'<br>
>                                         |<br>
><br>
> |  'PETSC_ARCH=arch-darwin-c-opt'<br>
>                                         |<br>
><br>
> |  'SLEPC_DIR=/Users/xzhao/software/slepc/slepc-3.6'<br>
>                                         |<br>
><br>
>  -------------------------------------------------------------------------------------------------------------------<br>
><br>
<br>
</div></div></blockquote></div><br></div>