<div dir="ltr">In talking with Garth, this will not work.<div><br></div><div>I/we am now thinking that we should replace the MG object with Telescope. Telescope seems to be designed to be a superset of MG. Telescope does the processor reduction, and GAMG does as well, so we would have to reconcile this.  Does this sound like a good idea? Am I missing anything important?</div><div><br></div><div>Mark</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jun 27, 2017 at 4:48 AM, Mark Adams <span dir="ltr"><<a href="mailto:mfadams@lbl.gov" target="_blank">mfadams@lbl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Parallel coarse grid solvers are a bit broken at large scale where you don't want to use all processors on the coarse grid. The ideal thing might be to create a sub communicator, but it's not clear how to integrate this in (eg, check if the sub communicator exists before calling the coarse grid solver and convert if necessary). A bit messy. It would be nice if a parallel direct solver would not redistribute the matrix, but then it would be asking too much for it to reorder also, so we could have a crappy ordering. So maybe the first option would be best long term.<div><br></div><div>I see we have MUMPS and<span style="white-space:pre-wrap"> </span>PaStiX. Do either of these not redistribute if asked?</div></div>
</blockquote></div><br></div>