<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Wed, May 13, 2015 at 12:01 AM, Michele Rosso <span dir="ltr"><<a href="mailto:mrosso@uci.edu" target="_blank">mrosso@uci.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Thanks Matt,<br>
Could you give me an example of not-native partitioning? I have a cubic domain and a 3D domain decomposition. I use dmda3d to create the partitioning.</p></blockquote><div>"naive", and I was talking about coarse grids. Coarse grids should be partitioned onto fewer than P processes.</div><div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Thanks,</p><p dir="ltr">
Michele</p>
<div class="gmail_quote">On May 12, 2015 9:51 PM, "Matthew Knepley" <<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, May 12, 2015 at 11:41 PM, Michele Rosso <span dir="ltr"><<a href="mailto:mrosso@uci.edu" target="_blank">mrosso@uci.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Barry,</p>
<p dir="ltr">thanks for your answer. The reason I'm asking is that multigrid limits the number of MPI tasks I can use for a given grid, since k multigrid levels require at least 2^(k-1) grid nodes per direction. I was wondering if using OpenMP together with MPI could help circumventing the problem. If you have any other suggestions, it would be greatly appreciated.</p></blockquote><div>This is only for naive partitioning. Good AMG necks down the processor set correctly, for example GAMG in PETSc.</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<p dir="ltr">Best,<br>
Michele</p>
<div style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
  You could compile hypre yourself with the OpenMP feature turned on and then configure PETSc to use that version of hypre; of course the rest of the PETSc code would not utilize the OpenMP threads.<br>
<br>
   Barry<br>
<br>
BTW: I don't know of any evidence that using hypre with OpenMP is superior to using hypre without so I aside from academic curiosity I don't think there would be a reason to do this.<br>
<br>
> On May 12, 2015, at 7:55 PM, Michele Rosso <<a href="mailto:mrosso@uci.edu" target="_blank">mrosso@uci.edu</a>> wrote:<br>
><br>
> Hi,<br>
><br>
> is it possible to use the openmp capabilities of hypre via petsc?<br>
> Thanks,<br>
><br>
> Michele<br>
<br>
</div>
</blockquote></div><br><br clear="all"><span class="HOEnZb"><font color="#888888"><div><br></div>-- <br><div>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</font></span></div></div>
</blockquote></div>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</div></div>