<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Am Di., 1. Feb. 2022 um 16:20 Uhr schrieb Jed Brown <<a href="mailto:jed@jedbrown.org">jed@jedbrown.org</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Patrick Sanan <<a href="mailto:patrick.sanan@gmail.com" target="_blank">patrick.sanan@gmail.com</a>> writes:<br>
<br>
> Sorry about the delay on this. I can reproduce.<br>
><br>
> This regression appears to be a result of this optimization:<br>
> <a href="https://gitlab.com/petsc/petsc/-/merge_requests/4273" rel="noreferrer" target="_blank">https://gitlab.com/petsc/petsc/-/merge_requests/4273</a><br>
<br>
Thanks for tracking this down. Is there a reason to prefer preallocating twice<br>
<br>
   ierr = MatPreallocatorPreallocate(preallocator,PETSC_TRUE,A);CHKERRQ(ierr);<br>
   ierr = MatPreallocatorPreallocate(preallocator,PETSC_TRUE,A_duplicate);CHKERRQ(ierr);<br>
<br>
versus using MatDuplicate() or MatConvert()?<br></blockquote><div><br></div><div>Maybe if your preallocation is an overestimate for each of two different post-assembly non-zero structures in A and A_duplicate?<br></div></div></div>