<div class="gmail_quote">On Wed, Jul 18, 2012 at 8:52 AM, Florian Beck <span dir="ltr"><<a href="mailto:Flo.44@gmx.de" target="_blank">Flo.44@gmx.de</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div id=":1si">[0]PETSC ERROR: ------------------------------------------------------------------------<br>
[0]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range<br>
[0]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger<br>
[0]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/petsc-as/documentation/troubleshooting.html#Signal[0]PETSC" target="_blank">http://www.mcs.anl.gov/petsc/petsc-as/documentation/troubleshooting.html#Signal[0]PETSC</a> ERROR: or try <a href="http://valgrind.org" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors<br>

[0]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run<br>
[0]PETSC ERROR: to get more information on the crash.<br>
[0]PETSC ERROR: --------------------- Error Message ------------------------------------<br>
[0]PETSC ERROR: Signal received!<br>
[0]PETSC ERROR: ------------------------------------------------------------------------<br>
[0]PETSC ERROR: Petsc Release Version 3.1.0, Patch 3, Fri Jun  4 15:34:52 CDT 2010<br>
[0]PETSC ERROR: See docs/changes/index.html for recent updates.<br>
[0]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>
[0]PETSC ERROR: See docs/index.html for manual pages.<br>
[0]PETSC ERROR: ------------------------------------------------------------------------<br>
[0]PETSC ERROR: -no_signal_handler,--with-dynamic-loading on a linux-gnu named riemann by beck Wed Jul 18 15:41:20 2012<br>
[0]PETSC ERROR: Libraries linked from /home/hazelsct/repositories/petsc/linux-gnu-c-opt/lib<br>
[0]PETSC ERROR: Configure run at Wed Aug  4 15:00:14 2010<br>
[0]PETSC ERROR: Configure options --with-shared --with-debugging=0 --useThreads 0 --with-clanguage=C++ --with-c-support --with-fortran-interfaces=1 --with-mpi-dir=/usr/lib/openmpi --with-mpi-shared=1 --with-blas-lib=-lblas --with-lapack-lib=-llapack --with-umfpack=1 --with-umfpack-include=/usr/include/suitesparse --with-umfpack-lib="[/usr/lib/libumfpack.so,/usr/lib/libamd.so]" --with-spooles=1 --with-spooles-include=/usr/include/spooles --with-spooles-lib=/usr/lib/libspooles.so --with-hypre=1 --with-hypre-dir=/usr --with-scotch=1 --with-scotch-include=/usr/include/scotch --with-scotch-lib=/usr/lib/libscotch.so --with-hdf5=1 --with-hdf5-dir=/usr<br>

[0]PETSC ERROR: ------------------------------------------------------------------------<br>
[0]PETSC ERROR: User provided function() line 0 in unknown directory unknown file<br>
--------------------------------------------------------------------------<br>
MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD<br>
with errorcode 59.<br></div></blockquote><div><br></div><div>This is in your code. Run in a debugger to find out what's wrong.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div id=":1si">
<br>
NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>
You may or may not see output from other processes, depending on<br>
exactly when Open MPI kills them.<br>
--------------------------------------------------------------------------<br>
<div class="im"><br>
<br>
> > Of course I have a memory leak, because I'm not using the functions to<br>
> > destroy my vectors. Is there a simple example how to use the<br>
> petsc-library<br>
> > in a program like the following pseudo-code:<br>
> ><br>
><br>
> Is MPI initialized before this is called? Did you plan to do this in<br>
> parallel? Are you linking PETSc dynamically (as in, you dlopen and dlsym<br>
> PETSc functions to call them, or perhaps you declare weak symbols in your<br>
> code), linking your app-specific solver module (you call PETSc normally<br>
> and<br>
> use dlsym at a higher level), or something else? Remember to configure<br>
> PETSc --with-dynamic-loading if necessary.<br>
<br>
</div>I plan to use it parallel, but first I want to calculate serial. I'm using dlopen to link my library.<br>
<br>
What happens if I call the PetsInitalize function several times? I call it in every function call.</div></blockquote></div><br><div>You can call it multiple times, but MPI_Init() can only be called once. We usually recommend that people only call PetscInitialize once (the logging/profiling/debugging infrastructure is more useful that way).</div>