Alexander :<div><br><div>Testing your matrix A.dat using petsc-3.3/src/ksp/ksp/examples/tutorials/ex10.c,</div><div>I find that A is numerically singular:</div><div><br></div><div>a) petsc sequential lu: </div><div>./ex10 -f0 A.dat -ksp_type preonly -pc_type lu -rhs 0</div>



<div><div>[0]PETSC ERROR: Detected zero pivot in LU factorization:</div><div>see <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html#ZeroPivot" target="_blank">http://www.mcs.anl.gov/petsc/documentation/faq.html#ZeroPivot</a>!</div>



<div>[0]PETSC ERROR: Zero pivot row 48 value 0 tolerance 2.22045e-14!</div></div><div><br></div><div>b) mumps lu with np=8:</div><div>mpiexec -n 8 ./ex10 -f0 A.dat -ksp_type preonly -pc_type lu -rhs 0 -pc_factor_mat_solver_package mumps</div>


<div>...</div><div><div>[0]PETSC ERROR: Error in external library!</div><div>[0]PETSC ERROR: Error reported by MUMPS in numerical factorization phase: INFO(1)=-1, INFO(2)=1</div></div><div>...</div><div><br></div><div>c) </div>

<div>superlu_dist lu with np=8:</div>
<div>mpiexec -n 8 ./ex10 -f0 A.dat -ksp_type preonly -pc_type lu -rhs 0 -pc_factor_mat_solver_package superlu_dist</div><div><div>Number of iterations =   1</div><div>Residual norm 0.0103982</div></div><div><br></div><div>

mumps cholesky with np=8:</div><div><div>mpiexec -n 8 ./ex10 -f0 A.dat -ksp_type preonly -pc_type cholesky -rhs 0 -pc_factor_mat_solver_package mumps</div><div>Number of iterations =   1</div><div>Residual norm 122744</div>

</div><div><br></div><div>
With such large residual norms, the computed solution cannot be trusted :-(</div><div><br></div><div>d) using -ksp_type gmres with </div><div>   pc=ilu: zero pivot</div><div>   pc=jacobi: iteration stagnates ..</div><div>

<br>
</div><div>I'm convinced that matrix A is corrupted or obtained from an incorrect numerical model.</div><div>Also note, your matrix A has size of approx. 60k, which is too large for sequential direct solver.</div><div>
<br></div><div>The error on MatMatSolve() when calling </div><div><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">' -pc_type cholesky -pc_factor_mat_solver_package mumps'</span></div>
<div><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:13px;background-color:rgb(255,255,255)">is a bug in our petsc-mumps interface. I've pushed a fix to petsc-3.3</span></div><div><a href="http://petsc.cs.iit.edu/petsc/releases/petsc-3.3/rev/8badc49a596e">http://petsc.cs.iit.edu/petsc/releases/petsc-3.3/rev/8badc49a596e</a></div>
<div><br></div><div>Thanks for your report.</div><div><br></div><div>Hong</div><div><br></div><div><br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div>On 13.08.2012 19:01, Hong Zhang wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Alexander :<br>
I need a simple code from you to reproduce the error for debugging.<br>
</blockquote>
<br></div>
Hong,<br>
<br>
Attached you will find test.c that should reproduce this behavior with petsc-3.3-p2.<br>
Just run it with 1 and 2 procs as following:<br>
./mpirun -n 1 test -ksp_type preonly -pc_type cholesky -pc_factor_mat_solver_package mumps -ksp_view<br>
<br>
Here is matrix I tested it on (15 MB): <a href="https://dl.dropbox.com/u/60982984/A.dat" target="_blank">https://dl.dropbox.com/u/<u></u>60982984/A.dat</a><div><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
If mumps' solver is activated, then you should get error (sequential and parallel)<br>
[0]PETSC ERROR: No support for this operation for this object type!<br>
[0]PETSC ERROR: MatMatSolve_MUMPS() is not implemented yet!<br>
<br>
If petsc's direct solver is activated, then you should not be able to run it in parallel.<br>
</blockquote>
<br></div>
Please note, that it works correctly for nproc > 1 since 1 year or so!<br>
So I don't quite understand why there should be error thrown.<br>
I just occasionally decided to test something in sequential version and this thing happened.<div><div><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Please check ~petsc/src/mat/examples/tests/<u></u>ex125.c<br>
to see if you used same calling procedure as this example.<br>
Note: I fixed a bug in this example and patched petsc-3.3.<br>
The update copy of ex125.c is attached for your convenience.<br>
<br>
Hong<br>
<br>
</blockquote>
<br>
<br></div></div><span><font color="#888888">
-- <br>
Regards,<br>
Alexander<br>
<br>
</font></span></blockquote></div><br></div></div>