<div dir="ltr">Hi Barry,<div><br></div><div>Thanks for your comments. To activate block low rank (BLR) approximation in MUMPS version 5.1.1, a user needs to turn on the functionality (i.e. ICNTL(35)=1) and specify the tolerance value (e.g. CNTL(7)=1e-4). In PETSC, I think that we can set up ICNTL and CNTL parameters for MUMPS. I was wondering if we can still use BLR approximation for a preconditioner for Krylov solvers.</div><div><br></div><div>Best,</div><div>Evan</div><div>  </div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Sep 23, 2017 at 6:45 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
> On Sep 23, 2017, at 8:38 PM, Evan Um <<a href="mailto:evanum@gmail.com">evanum@gmail.com</a>> wrote:<br>
><br>
> Dear PETSC Users,<br>
><br>
> My system matrix comes from finite element modeling and is complex and unstructured. Its typical size is a few millions-by a few millions. I wondering if I can use MUMPS parallel direct solver as a preconditioner in PETSC. For example, I want to pass factored matrices to Krylov iterative solvers such as QMR. Is there any PETSC+MUMPS example code for the purpose?<br>
<br>
</span>  You don't pass factored matrices you just pass the original matrix and use -pc_type lu -pc_factor_mat_solver_package mumps<br>
<span class=""><br>
> Can PETSC call the latest MUMPS that supports block low rank approximation?<br>
<br>
</span>  No, send us info on it and we'll see if we can add an interface<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
><br>
> In advance, thank you very much for your comments.<br>
><br>
> Best,<br>
> Evan<br>
><br>
><br>
><br>
><br>
><br>
<br>
</div></div></blockquote></div><br></div>