[petsc-users] boomeramg memory usage
Benjamin Sanderse
B.Sanderse at cwi.nl
Wed Jul 11 05:38:05 CDT 2012
Beste Christiaan,
Misschien lopen wij tegen dezelfde problemen aan. Ik ben nu ook een Poisson vergelijking aan het oplossen van ongeveer dezelfde grootte (100^3, 200^3) en bij mij schaalt de rekentijd alleen goed van 1 naar 2 processoren; voor meer processoren blijft de rekentijd nagenoeg constant. Ik heb hier gisteren een post over geplaatst op de PETSc mailing list, misschien kan jij daar eens naar kijken. Gister werd gesuggereerd dat dit een hardware beperking is. Ik heb nog geen oplossing, dus ben benieuwd of het PETSc team nog met nieuwe tips komt.
Hartelijke groeten,
Benjamin Sanderse (ECN, CWI)
Op 11 jul 2012, om 10:48 heeft Klaij, Christiaan het volgende geschreven:
> I'm solving a 3D Poisson equation on a 200x200x100 grid using
> CG and algebraic multigrid as preconditioner. I noticed that with
> boomeramg, the memory increases as the number of procs increases:
>
> 1 proc: 2.8G
> 2 procs: 2.8G
> 4 procs: 5.2G
> 8 procs: >12G (max reached, swapping)
>
> The memory usage is obtained from top. When using ml or gamg (all
> with PETSc defaults), the memory usage remains more or less
> constant. Something wrong with my install? Some Hypre option I
> should set?
>
>
> dr. ir. Christiaan Klaij
> CFD Researcher
> Research & Development
> E mailto:C.Klaij at marin.nl
> T +31 317 49 33 44
>
> MARIN
> 2, Haagsteeg, P.O. Box 28, 6700 AA Wageningen, The Netherlands
> T +31 317 49 39 11, F +31 317 49 32 45, I www.marin.nl
>
--
Ir. B. Sanderse
Centrum Wiskunde en Informatica
Science Park 123
1098 XG Amsterdam
t: +31 20 592 4161
e: sanderse at cwi.nl
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.mcs.anl.gov/pipermail/petsc-users/attachments/20120711/61ebfd3e/attachment.html>
More information about the petsc-users
mailing list