<div dir="ltr">When using the option -viewer_binary_mpiio, I see PETSC Error: DMDAArrayMPIIO() line 532 in /src/dm/impls/da/gr2.c.<div><br></div><div>However, when I run it without mpiio, it outputs the binary data fine. What options am I missing here?</div>
<div><br></div><div>Thank you.</div><div><br></div><div>xiangdong</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Mar 4, 2014 at 11:59 PM, Jed Brown <span dir="ltr"><<a href="mailto:jed@jedbrown.org" target="_blank">jed@jedbrown.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="">Xiangdong <<a href="mailto:epscodes@gmail.com">epscodes@gmail.com</a>> writes:<br>
<br>
> At this moment, when I write the solutions (two vectors with a few billion<br>
> unknowns) to binary vts format, the writing rate is about 100MB/s from proc<br>
> 0.<br>
<br>
</div>How many procs are you writing from and what filesystem do you have?<br>
How much faster is it if you write the PETSc binary format using MPI-IO<br>
(-viewer_binary_mpiio)?  If that is lots faster for you, I can fairly<br>
simply add support for writing VTS that way.  You'll still pay when you<br>
visualize, however.<br>
<div class=""><br>
> Do you think writing the data into pvts format will enhance the<br>
> performance?<br>
<br>
</div>No.  PVTS is a crappy format designed by people that evidently did not<br>
understand parallel IO performance.  But all the VTK formats are crappy<br>
if you really care about performance.  With the VTK formats, if you<br>
write it efficiently, it will still be a bottleneck to read.  We support<br>
them because they are easy.  Use HDF5 if you want something sensible.<br>
</blockquote></div><br></div>