<div class="gmail_quote">On Tue, Sep 20, 2011 at 12:58 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div class="im"><br>
On Sep 20, 2011, at 11:54 AM, Brad Aagaard wrote:<br>
<br>
> I tried running a PyLith simulation using the sacusp preconditioner rather than ml. If I have the mat_type set to mpiaijcusp, I get an error message that sacusp preconditioner only works with CUSP matrices. I checked sacusp.c and the code checks to make sure the mat_type is seqaijcusp.<br>


<br>
</div>   Since the sacusp preconditioner is no MPI parallel it cannot deal with MPI matrices. ML is a truly (MPI) parallel multi-level preconditioner so it is not really interchangable with sacusp.<br>
<br>
    You can use block Jacobi preconditioning -pc_type bjacobi -sub_pc_type sacusp   with sacusp on each block.</blockquote><div><br>Hi Barry,<br>
<br>
Sorry to dig up a very old thread, but I just tried your suggestion of 
using block jacobi with sacusp on the blocks and I can't get it to 
work.  For example, I run src/ksp/ksp/examples/tutorials/ex2.c with:<br>
<br>
 mpirun -np 2 ./ex2 -ksp_type cg -pc_type bjacobi -sub_pc_type sacusp -mat_type mpiaijcusp -vec_type mpicusp<br><br>and it still bombs on line 139 of <a href="http://sacusp.cu">sacusp.cu</a> because the vector type is not VECSEQCUSP.  What am I doing wrong?<br>

<br>Thanks,<br>John<br><br></div></div>