<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Interface to the sparse elemental solver is almost done in <a href="https://bitbucket.org/petsc/petsc/branch/stefano_zampini/new-elemental-interface">https://bitbucket.org/petsc/petsc/branch/stefano_zampini/new-elemental-interface</a><div><br></div><div>I did not have time to finish it, and I’m not sure if Elemental now supports user-defined distributions for the vectors.</div><div><div><div><br></div><div><br></div><div>On Aug 23, 2016, at 3:15 PM, Matthew Knepley <<a href="mailto:knepley@gmail.com">knepley@gmail.com</a>> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, Aug 23, 2016 at 3:01 AM, Patrick Sanan <span dir="ltr"><<a href="mailto:patrick.sanan@gmail.com" target="_blank">patrick.sanan@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Can I use elemental to directly solve a sparse, distributed-memory<br>
(MPI), quad-precision linear system? If so, with the introduction of<br>
an interface, could this provide a way to support such a solve via an<br>
external package for PETSc?<br>
</blockquote></div><br>I think you need Clique and I am not sure we have an interface. I would check first.</div><div class="gmail_extra"><br></div><div class="gmail_extra">   Matt<br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</div></div>
</blockquote></div><br></div></body></html>