<div dir="ltr"><div dir="ltr"><div>Dear Petsc developers:</div><div>Hi,</div><div>1. I tried to use the Picard solver in Petsc, but the program didn't converge. My program is still a thermal program that contains multiple physical fields, and is a PDEs' problem. The error message is as follows. The reason I use Picard is that it can guarantee convergence(though slow and expensive). I follow the ex15.c, but I don't use DM to organize the solution vector. So I try the SNESSetPicard().</div><div><div style="margin-left:40px">0 SNES Function norm 2.91302e+08 <br>    0 KSP Residual norm 5.79907e+08 <br>    1 KSP Residual norm 1.46843e-05 <br>  Linear solve converged due to CONVERGED_RTOL iterations 1<br>  1 SNES Function norm 2.891e+08 <br>    0 KSP Residual norm 5.5989e+08 <br>    1 KSP Residual norm 4.21314e-06 <br>  Linear solve converged due to CONVERGED_RTOL iterations 1<br>  2 SNES Function norm 2.78289e+08 <br>    0 KSP Residual norm 5.53553e+08 <br>    1 KSP Residual norm 2.04076e-05 <br>  Linear solve converged due to CONVERGED_RTOL iterations 1<br>  3 SNES Function norm 2.77833e+08 <br>    0 KSP Residual norm 5.52907e+08 <br>    1 KSP Residual norm 2.09919e-05 <br>  Linear solve converged due to CONVERGED_RTOL iterations 1<br>  4 SNES Function norm 2.77821e+08 <br>    0 KSP Residual norm 5.52708e+08 <br>    1 KSP Residual norm 2.08677e-05 <br>  Linear solve converged due to CONVERGED_RTOL iterations 1<br>Nonlinear solve did not converge due to DIVERGED_LINE_SEARCH iterations 4<br>SNES Object: 1 MPI processes<br>  type: newtonls<br>  maximum iterations=50, maximum function evaluations=10000<br>  tolerances: relative=1e-08, absolute=1e-50, solution=1e-08<br>  total number of linear solver iterations=5<br>  total number of function evaluations=34<br>  norm schedule ALWAYS<br>  SNESLineSearch Object: 1 MPI processes<br>    type: bt<br>      interpolation: cubic<br>      alpha=1.000000e-04<br>    maxstep=1.000000e+08, minlambda=1.000000e-12<br>    tolerances: relative=1.000000e-08, absolute=1.000000e-15, lambda=1.000000e-08<br>    maximum iterations=40<br>  KSP Object: 1 MPI processes<br>    type: gmres<br>      restart=30, using Classical (unmodified) Gram-Schmidt Orthogonalization with no iterative refinement<br>      happy breakdown tolerance 1e-30<br>    maximum iterations=10000, initial guess is zero<br>    tolerances:  relative=1e-05, absolute=1e-50, divergence=10000.<br>    left preconditioning<br>    using PRECONDITIONED norm type for convergence test<br>  PC Object: 1 MPI processes<br>    type: lu<br>      out-of-place factorization<br>      tolerance for zero pivot 2.22045e-14<br>      matrix ordering: nd<br>      factor fill ratio given 5., needed 5.48356<br>        Factored matrix follows:<br>          Mat Object: 1 MPI processes<br>            type: seqaij<br>            rows=11368, cols=11368<br>            package used to perform factorization: petsc<br>            total: nonzeros=234554, allocated nonzeros=234554<br>            total number of mallocs used during MatSetValues calls =0<br>              not using I-node routines<br>    linear system matrix = precond matrix:<br>    Mat Object: 1 MPI processes<br>      type: seqaij<br>      rows=11368, cols=11368<br>      total: nonzeros=42774, allocated nonzeros=56840<br>      total number of mallocs used during MatSetValues calls =0<br>        not using I-node routines</div>Are there any other examples of Picard methods? I'm very interested in this method.</div><div><br></div><div>2. I found that in ex15.c and ex19.c use the NonlinearGS. I know it's a iterative method. I don't know how to use this method in above examples.  As for as I know, NonlinearGS is an iterative method parallel to subspace method. NonlinearGS should not be required if subspace methods are used. <br></div><div><br></div><div>Thanks,</div><div>Yingjie<br></div><div><div style="margin-left:40px"> <br></div><br></div></div></div>