<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Oct 17, 2013 at 3:00 PM, Jed Brown <span dir="ltr"><<a href="mailto:jedbrown@mcs.anl.gov" target="_blank">jedbrown@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="im">Bishesh Khanal <<a href="mailto:bisheshkh@gmail.com">bisheshkh@gmail.com</a>> writes:<br>

> The program crashes only for a bigger domain size. Even in the cluster, it<br>
> does not crash for the domain size up to a certain size.  So I need to run<br>
> in the debugger for the case when it crashes to get the stack trace from<br>
> the SEGV, right ? I do not know how to attach a debugger when submitting a<br>
> job to the cluster if that is possible at all!<br>
<br>
</div>Most machines allow you to get "interactive" sessions.  You can usually<br>
run debuggers within those.  Some facilities also have commercial<br>
debuggers.<br></blockquote><div><br>Thanks, I'll have a look at that.<br> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div class="im"><br>
> Or are you asking me to run the program in the debugger in my laptop<br>
> for the biggest size ? (I have not tried running the code for the<br>
> biggest size in my laptop fearing it might take forever)<br>
<br>
</div>Your laptop probably doesn't have enough memory for that.<br></blockquote><div><br></div><div>Yes, I tried it just a while ago and this is happened I think. (Just to confirm, I have put the error message for this case at the very end of this reply.*)<br>
</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Can you try running on the cluster with one MPI rank per node?  We<br>
should rule out simple out-of-memory problems, confirm that the code<br>
executes correctly with MPICH, and finally figure out why it fails with<br>
Open MPI (assuming that the previous hunch was correct).<br>
<br>
</blockquote></div><br></div><div class="gmail_extra">I'm sorry but I'm a complete beginner with MPI and clusters; so what does one MPI rank per node means and what should I do to do that ? My guess is that I set one core per node and use multiple nodes in my job script file ? Or do I need to do something in the petsc code ? <br>
<br></div><div class="gmail_extra">*Here is the error I get when running for the full domain size in my laptop:<br>[3]PETSC ERROR: --------------------- Error Message ------------------------------------<br>[3]PETSC ERROR: Out of memory. This could be due to allocating<br>
[3]PETSC ERROR: too large an object or bleeding by not properly<br>[3]PETSC ERROR: destroying unneeded objects.<br>[1]PETSC ERROR: Memory allocated 0 Memory used by process 1700159488<br>[1]PETSC ERROR: Try running with -malloc_dump or -malloc_log for info.<br>
[1]PETSC ERROR: Memory requested 6234924800!<br>[1]PETSC ERROR: ------------------------------------------------------------------------<br>[1]PETSC ERROR: Petsc Release Version 3.4.3, Oct, 15, 2013 <br>[1]PETSC ERROR: See docs/changes/index.html for recent updates.<br>
[1]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>[1]PETSC ERROR: See docs/index.html for manual pages.<br>[1]PETSC ERROR: ------------------------------------------------------------------------<br>[1]PETSC ERROR: [2]PETSC ERROR: Memory allocated 0 Memory used by process 1695793152<br>
[2]PETSC ERROR: Try running with -malloc_dump or -malloc_log for info.<br>[2]PETSC ERROR: Memory requested 6223582208!<br>[2]PETSC ERROR: ------------------------------------------------------------------------<br>[2]PETSC ERROR: Petsc Release Version 3.4.3, Oct, 15, 2013 <br>
[2]PETSC ERROR: See docs/changes/index.html for recent updates.<br>[2]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>[2]PETSC ERROR: See docs/index.html for manual pages.<br>[2]PETSC ERROR: ------------------------------------------------------------------------<br>
[2]PETSC ERROR: src/AdLemMain on a arch-linux2-cxx-debug named edwards by bkhanal Thu Oct 17 15:19:22 2013<br>[1]PETSC ERROR: Libraries linked from /home/bkhanal/Documents/softwares/petsc-3.4.3/arch-linux2-cxx-debug/lib<br>
[1]PETSC ERROR: Configure run at Wed Oct 16 15:13:05 2013<br>[1]PETSC ERROR: Configure options --download-mpich -download-f-blas-lapack=1 --download-metis --download-parmetis --download-superlu_dist --download-scalapack --download-mumps --download-hypre --with-clanguage=cxx<br>
[1]PETSC ERROR: ------------------------------------------------------------------------<br>[1]PETSC ERROR: PetscMallocAlign() line 46 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/sys/memory/mal.c<br>src/AdLemMain on a arch-linux2-cxx-debug named edwards by bkhanal Thu Oct 17 15:19:22 2013<br>
[2]PETSC ERROR: Libraries linked from /home/bkhanal/Documents/softwares/petsc-3.4.3/arch-linux2-cxx-debug/lib<br>[2]PETSC ERROR: Configure run at Wed Oct 16 15:13:05 2013<br>[2]PETSC ERROR: Configure options --download-mpich -download-f-blas-lapack=1 --download-metis --download-parmetis --download-superlu_dist --download-scalapack --download-mumps --download-hypre --with-clanguage=cxx<br>
[2]PETSC ERROR: ------------------------------------------------------------------------<br>[2]PETSC ERROR: PetscMallocAlign() line 46 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/sys/memory/mal.c<br>[1]PETSC ERROR: MatSeqAIJSetPreallocation_SeqAIJ() line 3551 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>
[1]PETSC ERROR: MatSeqAIJSetPreallocation() line 3496 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>[2]PETSC ERROR: MatSeqAIJSetPreallocation_SeqAIJ() line 3551 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>
[2]PETSC ERROR: MatSeqAIJSetPreallocation() line 3496 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>[1]PETSC ERROR: MatMPIAIJSetPreallocation_MPIAIJ() line 3307 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>
[1]PETSC ERROR: MatMPIAIJSetPreallocation() line 4015 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>[2]PETSC ERROR: MatMPIAIJSetPreallocation_MPIAIJ() line 3307 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>
[2]PETSC ERROR: MatMPIAIJSetPreallocation() line 4015 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>[0]PETSC ERROR: --------------------- Error Message ------------------------------------<br>
[0]PETSC ERROR: Out of memory. This could be due to allocating<br>[0]PETSC ERROR: too large an object or bleeding by not properly<br>[0]PETSC ERROR: destroying unneeded objects.<br>[2]PETSC ERROR: [1]PETSC ERROR: DMCreateMatrix_DA_3d_MPIAIJ() line 1101 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>
[1]PETSC ERROR: DMCreateMatrix_DA_3d_MPIAIJ() line 1101 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>[2]PETSC ERROR: DMCreateMatrix_DA() line 771 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>
DMCreateMatrix_DA() line 771 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>[3]PETSC ERROR: Memory allocated 0 Memory used by process 1675407360<br>[3]PETSC ERROR: Try running with -malloc_dump or -malloc_log for info.<br>
[3]PETSC ERROR: Memory requested 6166659200!<br>[3]PETSC ERROR: ------------------------------------------------------------------------<br>[3]PETSC ERROR: Petsc Release Version 3.4.3, Oct, 15, 2013 <br>[3]PETSC ERROR: See docs/changes/index.html for recent updates.<br>
[3]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>[3]PETSC ERROR: See docs/index.html for manual pages.<br>[3]PETSC ERROR: ------------------------------------------------------------------------<br>[3]PETSC ERROR: src/AdLemMain on a arch-linux2-cxx-debug named edwards by bkhanal Thu Oct 17 15:19:22 2013<br>
[3]PETSC ERROR: Libraries linked from /home/bkhanal/Documents/softwares/petsc-3.4.3/arch-linux2-cxx-debug/lib<br>[3]PETSC ERROR: Configure run at Wed Oct 16 15:13:05 2013<br>[3]PETSC ERROR: Configure options --download-mpich -download-f-blas-lapack=1 --download-metis --download-parmetis --download-superlu_dist --download-scalapack --download-mumps --download-hypre --with-clanguage=cxx<br>
[3]PETSC ERROR: ------------------------------------------------------------------------<br>[3]PETSC ERROR: [1]PETSC ERROR: DMCreateMatrix() line 910 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/interface/dm.c<br>
[2]PETSC ERROR: DMCreateMatrix() line 910 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/interface/dm.c<br>PetscMallocAlign() line 46 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/sys/memory/mal.c<br>[3]PETSC ERROR: MatSeqAIJSetPreallocation_SeqAIJ() line 3551 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>
[3]PETSC ERROR: MatSeqAIJSetPreallocation() line 3496 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>[1]PETSC ERROR: KSPSetUp() line 207 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/ksp/ksp/interface/itfunc.c<br>
[2]PETSC ERROR: KSPSetUp() line 207 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/ksp/ksp/interface/itfunc.c<br>[3]PETSC ERROR: MatMPIAIJSetPreallocation_MPIAIJ() line 3307 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>
[3]PETSC ERROR: MatMPIAIJSetPreallocation() line 4015 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>[3]PETSC ERROR: DMCreateMatrix_DA_3d_MPIAIJ() line 1101 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>
[3]PETSC ERROR: DMCreateMatrix_DA() line 771 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>[3]PETSC ERROR: DMCreateMatrix() line 910 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/interface/dm.c<br>
[3]PETSC ERROR: KSPSetUp() line 207 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/ksp/ksp/interface/itfunc.c<br>[1]PETSC ERROR: solveModel() line 128 in "unknowndirectory/"/user/bkhanal/home/works/AdLemModel/src/PetscAdLemTaras3D.cxx<br>
[2]PETSC ERROR: solveModel() line 128 in "unknowndirectory/"/user/bkhanal/home/works/AdLemModel/src/PetscAdLemTaras3D.cxx<br>[3]PETSC ERROR: solveModel() line 128 in "unknowndirectory/"/user/bkhanal/home/works/AdLemModel/src/PetscAdLemTaras3D.cxx<br>
[0]PETSC ERROR: Memory allocated 0 Memory used by process 1711476736<br>[0]PETSC ERROR: Try running with -malloc_dump or -malloc_log for info.<br>[0]PETSC ERROR: Memory requested 6292477952!<br>[0]PETSC ERROR: ------------------------------------------------------------------------<br>
[0]PETSC ERROR: Petsc Release Version 3.4.3, Oct, 15, 2013 <br>[0]PETSC ERROR: See docs/changes/index.html for recent updates.<br>[0]PETSC ERROR: See docs/faq.html for hints about trouble shooting.<br>[0]PETSC ERROR: See docs/index.html for manual pages.<br>
[0]PETSC ERROR: ------------------------------------------------------------------------<br>[0]PETSC ERROR: src/AdLemMain on a arch-linux2-cxx-debug named edwards by bkhanal Thu Oct 17 15:19:22 2013<br>[0]PETSC ERROR: Libraries linked from /home/bkhanal/Documents/softwares/petsc-3.4.3/arch-linux2-cxx-debug/lib<br>
[0]PETSC ERROR: Configure run at Wed Oct 16 15:13:05 2013<br>[0]PETSC ERROR: Configure options --download-mpich -download-f-blas-lapack=1 --download-metis --download-parmetis --download-superlu_dist --download-scalapack --download-mumps --download-hypre --with-clanguage=cxx<br>
[0]PETSC ERROR: ------------------------------------------------------------------------<br>[0]PETSC ERROR: PetscMallocAlign() line 46 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/sys/memory/mal.c<br>[0]PETSC ERROR: MatSeqAIJSetPreallocation_SeqAIJ() line 3551 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>
[0]PETSC ERROR: MatSeqAIJSetPreallocation() line 3496 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/seq/aij.c<br>[0]PETSC ERROR: MatMPIAIJSetPreallocation_MPIAIJ() line 3307 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>
[0]PETSC ERROR: MatMPIAIJSetPreallocation() line 4015 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/mat/impls/aij/mpi/mpiaij.c<br>[0]PETSC ERROR: DMCreateMatrix_DA_3d_MPIAIJ() line 1101 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>
[0]PETSC ERROR: DMCreateMatrix_DA() line 771 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/impls/da/fdda.c<br>[0]PETSC ERROR: DMCreateMatrix() line 910 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/dm/interface/dm.c<br>
[0]PETSC ERROR: KSPSetUp() line 207 in /home/bkhanal/Documents/softwares/petsc-3.4.3/src/ksp/ksp/interface/itfunc.c<br>[0]PETSC ERROR: solveModel() line 128 in "unknowndirectory/"/user/bkhanal/home/works/AdLemModel/src/PetscAdLemTaras3D.cxx<br>
--9345:0:aspacem  Valgrind: FATAL: VG_N_SEGMENTS is too low.<br>--9345:0:aspacem    Increase it and rebuild.  Exiting now.<br>--9344:0:aspacem  Valgrind: FATAL: VG_N_SEGMENTS is too low.<br>--9344:0:aspacem    Increase it and rebuild.  Exiting now.<br>
--9343:0:aspacem  Valgrind: FATAL: VG_N_SEGMENTS is too low.<br>--9343:0:aspacem    Increase it and rebuild.  Exiting now.<br>--9346:0:aspacem  Valgrind: FATAL: VG_N_SEGMENTS is too low.<br>--9346:0:aspacem    Increase it and rebuild.  Exiting now.<br>
<br>===================================================================================<br>=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES<br>=   EXIT CODE: 1<br>=   CLEANING UP REMAINING PROCESSES<br>=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES<br>
===================================================================================<br><br><br></div></div>