<div dir="ltr"><div><div><div><div>Hi Stefano/PETSc Developers, <br></div><div><br>The chunksize is indeed limited to 4GB as per this page : <a href="https://portal.hdfgroup.org/pages/viewpage.action?pageId=48808714">https://portal.hdfgroup.org/pages/viewpage.action?pageId=48808714</a>. <br></div><br>With a (complex) DMDA vector of size (16384,16384,2) I see that PETSc saves it as a hdf5 file with chunks of size (1024,1024,2). But with a non DMDA vector I don't see any chunking happening. I tried examining the chunk size after running the same example as above and increasing the size of the vector until it fails to write.<br><br></div>The output of the following case (first size to fail) is attached : mpirun -np 16 ./ex10 -m 134217728 &> log. There's a slightly different error here which states : <br></div>```<br>    minor: Some MPI function failed<br>  #018: H5Dchunk.c line 4706 in H5D__chunk_collective_fill(): Invalid argument, error stack:<br>PMPI_Type_create_hvector(125): MPI_Type_create_hvector(count=0, blocklength=-2147483648, stride=0, MPI_BYTE, newtype=0x7ffc177d5bf8) failed<br>PMPI_Type_create_hvector(80).: Invalid value for blocklen, must be non-negative but is -2147483648<br>    major: Internal error (too specific to document in detail)<br></div><div>```<br><br>


Strangely the same case works with 3.11.1 and the dataset has 4 chunks. I'm not sure how, but it looks like the chunking logic somehow got broken in 3.12. <br></div><div><br></div><div><br></div><div>Thank You,<br></div><div><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div style="font-size:12.8px">Sajid Ali<br></div><div style="font-size:12.8px">Applied Physics<br></div><div style="font-size:12.8px">Northwestern University</div><div style="font-size:12.8px"><a href="http://s-sajid-ali.github.io" target="_blank">s-sajid-ali.github.io</a></div></div></div></div></div>

</div></div>