Dear list,<div><br></div><div>I run into a segfault when running src/dm/examples/tutorials/ex11f90.F</div><div><br></div><div>Intel Fortran Compiler 12.1.3; 1.6 OpenMPI; Ubuntu 12.04</div><div>other examples compiles and runs well. </div>
<div><br></div><div>It compiles without any warnings or errors; however it cannot run.</div><div>Any ideas?  Error message are attached.</div><div><br></div><div>Thank you!</div><div>Panruo Wu</div><div><br></div><div><div>
$ mpirun -np 1 ex11f90</div><div>[0]PETSC ERROR: ------------------------------------------------------------------------</div><div>[0]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range</div>
<div>[0]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</div><div>[0]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/petsc-as/documentation/faq.html#valgrind[0]PETSC">http://www.mcs.anl.gov/petsc/petsc-as/documentation/faq.html#valgrind[0]PETSC</a> ERROR: or try <a href="http://valgrind.org">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</div>
<div>[0]PETSC ERROR: likely location of problem given in stack below</div><div>[0]PETSC ERROR: ---------------------  Stack Frames ------------------------------------</div><div>[0]PETSC ERROR: Note: The EXACT line numbers in the stack are not available,</div>
<div>[0]PETSC ERROR:       INSTEAD the line number of the start of the function</div><div>[0]PETSC ERROR:       is given.</div><div>[0]PETSC ERROR: --------------------- Error Message ------------------------------------</div>
<div>[0]PETSC ERROR: Signal received!</div><div>[0]PETSC ERROR: ------------------------------------------------------------------------</div><div>[0]PETSC ERROR: Petsc Release Version 3.2.0, Patch 7, Thu Mar 15 09:30:51 CDT 2012 </div>
<div>[0]PETSC ERROR: See docs/changes/index.html for recent updates.</div><div>[0]PETSC ERROR: See docs/faq.html for hints about trouble shooting.</div><div>[0]PETSC ERROR: See docs/index.html for manual pages.</div><div>
[0]PETSC ERROR: ------------------------------------------------------------------------</div><div>[0]PETSC ERROR: ex11f90 on a opmi_inte named avahome by pwu Tue Jun  5 21:44:11 2012</div><div>[0]PETSC ERROR: Libraries linked from /home/pwu/Downloads/petsc-3.2-p7/opmi_intel_dbg/lib</div>
<div>[0]PETSC ERROR: Configure run at Tue Jun  5 10:02:00 2012</div><div>[0]PETSC ERROR: Configure options --with-blas-lapack-dir=/opt/intel/mkl/lib/intel64 --download-umfpack --download-superlu --with-x=1</div><div>[0]PETSC ERROR: ------------------------------------------------------------------------</div>
<div>[0]PETSC ERROR: User provided function() line 0 in unknown directory unknown file</div><div>--------------------------------------------------------------------------</div><div>MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD </div>
<div>with errorcode 59.</div><div><br></div><div>NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.</div><div>You may or may not see output from other processes, depending on</div><div>exactly when Open MPI kills them.</div>
<div>--------------------------------------------------------------------------</div><div>--------------------------------------------------------------------------</div><div>mpirun has exited due to process rank 0 with PID 22293 on</div>
<div>node avahome exiting improperly. There are two reasons this could occur:</div><div><br></div><div>1. this process did not call "init" before exiting, but others in</div><div>the job did. This can cause a job to hang indefinitely while it waits</div>
<div>for all processes to call "init". By rule, if one process calls "init",</div><div>then ALL processes must call "init" prior to termination.</div><div><br></div><div>2. this process called "init", but exited without calling "finalize".</div>
<div>By rule, all processes that call "init" MUST call "finalize" prior to</div><div>exiting or it will be considered an "abnormal termination"</div><div><br></div><div>This may have caused other processes in the application to be</div>
<div>terminated by signals sent by mpirun (as reported here).</div><div>--------------------------------------------------------------------------</div></div><div><br></div>