<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Aug 22, 2013 at 12:12 AM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
   Most likely the tool you are using to launch the parallel program is wrong for the MPI you have linked PETSc with. Are you starting the program with mpiexec ? Is that mpiexec the one that goes with the MPI (mpicc or mpif90) that you built PETSc with?<br>
</blockquote><div><br></div><div>Thanks Barry, I'm using the bin/petscmpiexec of the petsc install.<br></div><div>But this is super strange, after having the errors yesterday I gave up and slept. Now, I just turned on the computer and rebuilt the project and run the same thing again and it works without any errors. This is very very strange!<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
   What happens if you compile a trivial MPI only code with the mpicc and then try to run it in parallel with the mpiexec?<br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
   Barry<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On Aug 21, 2013, at 5:05 PM, Bishesh Khanal <<a href="mailto:bisheshkh@gmail.com">bisheshkh@gmail.com</a>> wrote:<br>
<br>
> Dear all,<br>
> My program runs fine when using just one processor, valgrind shows no errors too, but when using more than one processor I get the following errors:<br>
><br>
> [0]PETSC ERROR: PetscOptionsInsertFile() line 461 in /home/bkhanal/Documents/softwares/petsc-3.4.2/src/sys/objects/options.c<br>
> [0]PETSC ERROR: PetscOptionsInsert() line 623 in /home/bkhanal/Documents/softwares/petsc-3.4.2/src/sys/objects/options.c<br>
> [0]PETSC ERROR: PetscInitialize() line 769 in /home/bkhanal/Documents/softwares/petsc-3.4.2/src/sys/objects/pinit.c<br>
> PETSC ERROR: Logging has not been enabled.<br>
> You might have forgotten to call PetscInitialize().<br>
> application called MPI_Abort(MPI_COMM_WORLD, 56) - process 0<br>
> [cli_0]: aborting job:<br>
> application called MPI_Abort(MPI_COMM_WORLD, 56) - process 0<br>
><br>
> ===================================================================================<br>
> =   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES<br>
> =   EXIT CODE: 56<br>
> =   CLEANING UP REMAINING PROCESSES<br>
> =   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES<br>
> ===================================================================================<br>
><br>
> I have not forgotten to call PetscInitialize, if that helps!<br>
> Thanks,<br>
> Bishesh<br>
<br>
</div></div></blockquote></div><br></div></div>