<div dir="ltr"><div dir="ltr">On Mon, Mar 27, 2023 at 12:30 AM Adrian Croucher <<a href="mailto:a.croucher@auckland.ac.nz">a.croucher@auckland.ac.nz</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">hi<br>
<br>
I am testing my code against the latest PETSc release branch, having <br>
built it mostly with PETSc 3.15 until now.<br>
<br>
An error is coming up when I read in a DMPlex, distribute it, add extra <br>
cells etc. to it (to represent dual porosity subsurface flow) and then <br>
re-distribute it for load balancing:<br>
<br>
[0]PETSC ERROR: Petsc has generated inconsistent data<br>
[0]PETSC ERROR: Point SF contains 25 which is a cell<br>
[0]PETSC ERROR: See <a href="https://petsc.org/release/faq/" rel="noreferrer" target="_blank">https://petsc.org/release/faq/</a> for trouble shooting.<br>
[0]PETSC ERROR: Petsc Release Version 3.18.5, unknown<br>
[0]PETSC ERROR: <br>
/home/acro018/software/geothermal/waiwera/code/petsc-3.19-debug/mesh_test <br>
on a v3.19-debug named en-354401 by acro018 Mon Mar 27 14:28:07 2023<br>
[0]PETSC ERROR: Configure options --with-x --download-cmake <br>
--download-hdf5 --download-zlib --download-netcdf --download-pnetcdf <br>
--download-exodusii --download-triangle --download-ptscotch <br>
--download-chaco --download-hypre<br>
[0]PETSC ERROR: #1 DMPlexCheckPointSF() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plex.c:8875<br>
[0]PETSC ERROR: #2 DMPlexCreateNumbering_Plex() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plex.c:8147<br>
[0]PETSC ERROR: #3 DMPlexCreatePartitionerGraph_Native() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plexpartition.c:153<br>
[0]PETSC ERROR: #4 DMPlexCreatePartitionerGraph() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plexpartition.c:514<br>
[0]PETSC ERROR: #5 PetscPartitionerDMPlexPartition() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plexpartition.c:781<br>
[0]PETSC ERROR: #6 DMPlexDistribute() at <br>
/home/acro018/software/PETSc/code/src/dm/impls/plex/plexdistribute.c:1820<br>
[0]PETSC ERROR: #7 ../src/mesh.F90:3618<br>
<br>
The code still runs and appears to produce correct results. Has some new <br>
checking been added which might be showing up a problem that was already <br>
there? Any other clues as to how to approach it?<br></blockquote><div><br></div><div>Yes, it is a new check. I do not expect cells that are shared until we create an overlap. We</div><div>can just put in a flag to shut it off, since otherwise it is a great check for finding bugs. Can</div><div>you show me how you add cells, so we can make a small example that tests this to go in</div><div>PETSc?</div><div><br></div><div>  Thanks,</div><div><br></div><div>    Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
- Adrian<br>
<br>
-- <br>
Dr Adrian Croucher<br>
Senior Research Fellow<br>
Department of Engineering Science<br>
University of Auckland, New Zealand<br>
email: <a href="mailto:a.croucher@auckland.ac.nz" target="_blank">a.croucher@auckland.ac.nz</a><br>
tel: +64 (0)9 923 4611<br>
<br>
</blockquote></div><br clear="all"><div><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div><div><br></div><div><a href="http://www.cse.buffalo.edu/~knepley/" target="_blank">https://www.cse.buffalo.edu/~knepley/</a><br></div></div></div></div></div></div></div></div>