<div dir="ltr">Hi,<br><br>It seems to me that you have misunderstood the usage of Petsc's MatXSetPreallocation. With a 27 point stencil, the "total" number of non-zeros in a row must be 27. You need to split this up into those interactions that are local and those that are off-proc.  Setting off-proc nnz to be 27 is way too high. You are running out of memory.<br>
<br>Mrinal<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Sat, Feb 23, 2013 at 4:09 AM, Hui Zhang <span dir="ltr"><<a href="mailto:mike.hui.zhang@hotmail.com" target="_blank">mike.hui.zhang@hotmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">No, it is a 27-stencil discretization.  I use petsc MatXSetPreallocation with much larger estimates for off-diagonal (i.e. on other processors) zeros.  Basically, I say 27 non-zeros per row are on other processors.  Does this cause the MUMPS error?  Thanks a lot!<br>

<div class="im HOEnZb"><br>
On Feb 23, 2013, at 9:56 AM, paresh murthy wrote:<br>
<br>
> Hello Mike,<br>
><br>
> I would guess, as perhaps others might as well, that it is trying to solve a million x million dense matrix.<br>
> Are you sure you have removed the zeroes and given it a sparse matrix ?<br>
><br>
> Paresh<br>
><br>
><br>
</div><div class="HOEnZb"><div class="h5">> From: Hui Zhang <<a href="mailto:mike.hui.zhang@hotmail.com">mike.hui.zhang@hotmail.com</a>><br>
> To: <a href="mailto:mumps-users@listes.ens-lyon.fr">mumps-users@listes.ens-lyon.fr</a>; PETSc users list <<a href="mailto:petsc-users@mcs.anl.gov">petsc-users@mcs.anl.gov</a>><br>
> Cc: Hui Zhang <<a href="mailto:mike.hui.zhang@hotmail.com">mike.hui.zhang@hotmail.com</a>><br>
> Sent: Saturday, February 23, 2013 9:51 AM<br>
> Subject: [mumps-users] MUMPS error<br>
><br>
> Error reported by MUMPS in numerical factorization phase: Cannot allocate required memory 70397575 megabytes<br>
><br>
> The required memory is too large. Is that normal? I'm solving a Helmholtz equation on 100^3 mesh partitioned to 4^3 processors.<br>
><br>
><br>
><br>
><br>
<br>
</div></div></blockquote></div><br></div>