<div dir="ltr">HI Matt,<div><br></div><div>Thanks for your reply. I put my application data into PETSc Vec and IS that take advantage of HDF5 viewer (you implemented). In fact, I did not add any new output and input functions.  </div><div><br></div><div>Thanks,</div><div><br></div><div>Fande,</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Nov 27, 2015 at 12:08 PM, Matthew Knepley <span dir="ltr"><<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class="">On Fri, Nov 27, 2015 at 1:05 PM, Fande Kong <span dir="ltr"><<a href="mailto:fdkong.jd@gmail.com" target="_blank">fdkong.jd@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi all,<div><br></div><div>I implemented a parallel IO based on the Vec and IS which uses HDF5. I am testing this loader on a supercomputer. I occasionally (not always) encounter the following errors (using 8192 cores):</div></div></blockquote><div><br></div></span><div>What is different from the current HDF5 output routines?</div><div><br></div><div>  Thanks,</div><div><br></div><div>    Matt</div><span class=""><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>[7689]PETSC ERROR: ------------------------------------------------------------------------</div><div>[7689]PETSC ERROR: Caught signal number 5 TRAP</div><div>[7689]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger</div><div>[7689]PETSC ERROR: or see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a></div><div>[7689]PETSC ERROR: or try <a href="http://valgrind.org" target="_blank">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors</div><div>[7689]PETSC ERROR: configure using --with-debugging=yes, recompile, link, and run </div><div>[7689]PETSC ERROR: to get more information on the crash.</div><div>[7689]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------</div><div>[7689]PETSC ERROR: Signal received</div><div>[7689]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.</div><div>[7689]PETSC ERROR: Petsc Release Version 3.6.2, unknown </div><div>[7689]PETSC ERROR: ./fsi on a arch-linux2-cxx-opt named ys6103 by fandek Fri Nov 27 11:26:30 2015</div><div>[7689]PETSC ERROR: Configure options --with-clanguage=cxx --with-shared-libraries=1 --download-fblaslapack=1 --with-mpi=1 --download-parmetis=1 --download-metis=1 --with-netcdf=1 --download-exodusii=1 --with-hdf5-dir=/glade/apps/opt/hdf5-mpi/1.8.12/intel/12.1.5 --with-debugging=no --with-c2html=0 --with-64-bit-indices=1</div><div>[7689]PETSC ERROR: #1 User provided function() line 0 in  unknown file</div><div>Abort(59) on node 7689 (rank 7689 in comm 1140850688): application called MPI_Abort(MPI_COMM_WORLD, 59) - process 7689</div><div>ERROR: 0031-300  Forcing all remote tasks to exit due to exit code 1 in task 7689 </div><div><br></div><div>Make and configure logs are attached.</div><div><br></div><div>Thanks,</div><div><br></div><div>Fande Kong,</div><div><br></div></div>
</blockquote></span></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><div><br></div>-- <br><div>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</font></span></div></div>
</blockquote></div><br></div>