<div dir="ltr"><div>Hi Barry,<br><div><div><br></div>Thank you for your suggestive reply.<br><br></div>I've also got a question that the routine <span style="color:rgb(121,61,147)">PetscMemoryGetMaximumUsage </span>would return the memory used for the program, but this is returned memory values used for the root processor or for all of the processors involved in the computation? <br><br></div>Thanks!<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Apr 28, 2015 at 3:04 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
  Killed (signal 9)<br>
<br>
  means that some process (generally external to the running process) has told the process to end. In HPC this often is because<br>
<br>
1) the OS has started running low on memory so killed the process (that is taking much of the memory)<br>
<br>
2) the batch system has killed the process because it has hit some limit that the has been set by the batch system (such as running too long).<br>
<br>
   My guess is that it is an "out of memory" issue and you are simply using more memory than available. So to run the size problem you want to run you need to use more nodes on your system. It is not likely a "bug" in MPI or elsewhere.<br>
<br>
  Barry<br>
<div><div class="h5"><br>
> On Apr 28, 2015, at 9:49 AM, Sharp Stone <<a href="mailto:thronesf@gmail.com">thronesf@gmail.com</a>> wrote:<br>
><br>
> Dear All,<br>
><br>
> I'm using Petsc to do the parallel computation. But an error confuses me recently. When I use a small scale computation (the computational task is small), the code runs smoothly. However, when I use a much larger parallel computation domain/task, I always get the error (as in the attachment):<br>
><br>
> [proxy:0:0@node01] HYD_pmcd_pmip_control_cmd_cb (../../../../source/mpich-3.1.1/src/pm/hydra/pm/pmiserv/pmip_cb.c:885): assert (!closed) failed<br>
> [proxy:0:0@node01] HYDT_dmxu_poll_wait_for_event (../../../../source/mpich-3.1.1/src/pm/hydra/tools/demux/demux_poll.c:76): callback returned error status<br>
> [proxy:0:0@node01] main (../../../../source/mpich-3.1.1/src/pm/hydra/pm/pmiserv/pmip.c:206): demux engine error waiting for event<br>
><br>
><br>
> I don't know what's been wrong. Is this because there is a bug in MPI?<br>
> Thank you in advance for any ideas and suggestions!<br>
><br>
> --<br>
> Best regards,<br>
><br>
> Feng<br>
</div></div>> <out.o367446><out.e367446><br>
<br>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature"><div dir="ltr"><div>Best regards,</div><div><br></div>Feng</div></div>
</div>