<div dir="ltr"><div><div><div>Dave,<br><br></div>Indeed the residual histories differ. Concerning the IS's, I have checked them on small cases, so that I am quite sure they are OK. <br>What could I do with PETSc to evaluate the ill-conditioning of the system or of the sub-systems?<br><br></div>Thanks again for your help,<br></div>Nicolas<br></div><div class="gmail_extra"><br><div class="gmail_quote">2017-01-05 15:46 GMT+01:00 Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
> On Jan 5, 2017, at 5:58 AM, Dave May <<a href="mailto:dave.mayhem23@gmail.com">dave.mayhem23@gmail.com</a>> wrote:<br>
><br>
> Do you now see identical residual histories for a job using 1 rank and 4 ranks?<br>
<br>
</span>   Please send the residual histories with the extra options, I'm curious too, because a Krylov method should not be needed in the inner solve, I just asked for it so we can see what the residuals look like.<br>
<span class="HOEnZb"><font color="#888888"><br>
   Barry<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
><br>
> If not, I am inclined to believe that the IS's you are defining for the splits in the parallel case are incorrect. The operator created to approximate the Schur complement with selfp should not depend on  the number of ranks.<br>
><br>
> Or possibly your problem is horribly I'll-conditioned. If it is, then this could result in slightly different residual histories when using different numbers of ranks - even if the operators are in fact identical<br>
><br>
><br>
> Thanks,<br>
>   Dave<br>
><br>
><br>
><br>
><br>
> On Thu, 5 Jan 2017 at 12:14, Karin&NiKo <<a href="mailto:niko.karin@gmail.com">niko.karin@gmail.com</a>> wrote:<br>
> Dear Barry, dear Dave,<br>
><br>
> THANK YOU!<br>
> You two pointed out the right problem.By using the options you provided (-fieldsplit_0_ksp_type gmres -fieldsplit_0_ksp_pc_side right -fieldsplit_1_ksp_type gmres -fieldsplit_1_ksp_pc_side right), the solver converges in 3 iterations whatever the size of the communicator.<br>
> All the trick is in the precise resolution of the Schur complement, by using a Krylov method (and not only preonly) *and* applying the preconditioner on the right (so evaluating the convergence on the unpreconditioned residual).<br>
><br>
> @Barry : the difference you see on the nonzero allocations for the different runs is just an artefact : when using more than one proc, we slighly over-estimate the number of non-zero terms. If I run the same problem with the -info option, I get extra information :<br>
> [2] MatAssemblyEnd_SeqAIJ(): Matrix size: 110 X 110; storage space: 0 unneeded,5048 used<br>
> [1] MatAssemblyEnd_SeqAIJ(): Matrix size: 271 X 271; storage space: 4249 unneeded,26167 used<br>
> [0] MatAssemblyEnd_SeqAIJ(): Matrix size: 307 X 307; storage space: 7988 unneeded,31093 used<br>
> [2] MatAssemblyEnd_SeqAIJ(): Matrix size: 110 X 244; storage space: 0 unneeded,6194 used<br>
> [1] MatAssemblyEnd_SeqAIJ(): Matrix size: 271 X 233; storage space: 823 unneeded,9975 used<br>
> [0] MatAssemblyEnd_SeqAIJ(): Matrix size: 307 X 197; storage space: 823 unneeded,8263 used<br>
> And 5048+26167+31093+6194+9975+<wbr>8263=86740 which is the number of exactly estimated nonzero terms for 1 proc.<br>
><br>
><br>
> Thank you again!<br>
><br>
> Best regards,<br>
> Nicolas<br>
><br>
><br>
> 2017-01-05 1:36 GMT+01:00 Barry Smith <<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>>:<br>
><br>
><br>
><br>
>    There is something wrong with your set up.<br>
><br>
><br>
><br>
><br>
><br>
> 1 process<br>
><br>
><br>
><br>
><br>
><br>
>            total: nonzeros=140616, allocated nonzeros=140616<br>
><br>
><br>
>           total: nonzeros=68940, allocated nonzeros=68940<br>
><br>
><br>
>                 total: nonzeros=3584, allocated nonzeros=3584<br>
><br>
><br>
>                 total: nonzeros=1000, allocated nonzeros=1000<br>
><br>
><br>
>                 total: nonzeros=8400, allocated nonzeros=8400<br>
><br>
><br>
><br>
><br>
><br>
> 2 processes<br>
><br>
><br>
>                 total: nonzeros=146498, allocated nonzeros=146498<br>
><br>
><br>
>           total: nonzeros=73470, allocated nonzeros=73470<br>
><br>
><br>
>                 total: nonzeros=3038, allocated nonzeros=3038<br>
><br>
><br>
>                 total: nonzeros=1110, allocated nonzeros=1110<br>
><br>
><br>
>                 total: nonzeros=6080, allocated nonzeros=6080<br>
><br>
><br>
>                         total: nonzeros=146498, allocated nonzeros=146498<br>
><br>
><br>
>                   total: nonzeros=73470, allocated nonzeros=73470<br>
><br>
><br>
>                 total: nonzeros=6080, allocated nonzeros=6080<br>
><br>
><br>
>           total: nonzeros=2846, allocated nonzeros=2846<br>
><br>
><br>
>     total: nonzeros=86740, allocated nonzeros=94187<br>
><br>
><br>
><br>
><br>
><br>
>   It looks like you are setting up the problem differently in parallel and seq. If it is suppose to be an identical problem then the number nonzeros should be the same in at least the first two matrices.<br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
> > On Jan 4, 2017, at 3:39 PM, Karin&NiKo <<a href="mailto:niko.karin@gmail.com">niko.karin@gmail.com</a>> wrote:<br>
><br>
><br>
> ><br>
><br>
><br>
> > Dear Petsc team,<br>
><br>
><br>
> ><br>
><br>
><br>
> > I am (still) trying to solve Biot's poroelasticity problem :<br>
><br>
><br>
> >  <image.png><br>
><br>
><br>
> ><br>
><br>
><br>
> > I am using a mixed P2-P1 finite element discretization. The matrix of the discretized system in binary format is attached to this email.<br>
><br>
><br>
> ><br>
><br>
><br>
> > I am using the fieldsplit framework to solve the linear system. Since I am facing some troubles, I have decided to go back to simple things. Here are the options I am using :<br>
><br>
><br>
> ><br>
><br>
><br>
> > -ksp_rtol 1.0e-5<br>
><br>
><br>
> > -ksp_type fgmres<br>
><br>
><br>
> > -pc_type fieldsplit<br>
><br>
><br>
> > -pc_fieldsplit_schur_<wbr>factorization_type full<br>
><br>
><br>
> > -pc_fieldsplit_type schur<br>
><br>
><br>
> > -pc_fieldsplit_schur_<wbr>precondition selfp<br>
><br>
><br>
> > -fieldsplit_0_pc_type lu<br>
><br>
><br>
> > -fieldsplit_0_pc_factor_mat_<wbr>solver_package mumps<br>
><br>
><br>
> > -fieldsplit_0_ksp_type preonly<br>
><br>
><br>
> > -fieldsplit_0_ksp_converged_<wbr>reason<br>
><br>
><br>
> > -fieldsplit_1_pc_type lu<br>
><br>
><br>
> > -fieldsplit_1_pc_factor_mat_<wbr>solver_package mumps<br>
><br>
><br>
> > -fieldsplit_1_ksp_type preonly<br>
><br>
><br>
> > -fieldsplit_1_ksp_converged_<wbr>reason<br>
><br>
><br>
> ><br>
><br>
><br>
> > On a single proc, everything runs fine : the solver converges in 3 iterations, according to the theory (see Run-1-proc.txt [contains -log_view]).<br>
><br>
><br>
> ><br>
><br>
><br>
> > On 2 procs, the solver converges in 28 iterations (see Run-2-proc.txt).<br>
><br>
><br>
> ><br>
><br>
><br>
> > On 3 procs, the solver converges in 91 iterations (see Run-3-proc.txt).<br>
><br>
><br>
> ><br>
><br>
><br>
> > I do not understand this behavior : since MUMPS is a parallel direct solver, shouldn't the solver converge in max 3 iterations whatever the number of procs?<br>
><br>
><br>
> ><br>
><br>
><br>
> ><br>
><br>
><br>
> > Thanks for your precious help,<br>
><br>
><br>
> > Nicolas<br>
><br>
><br>
> ><br>
><br>
><br>
> > <Run-1-proc.txt><Run-2-proc.<wbr>txt><Run-3-proc.txt><1_<wbr>Warning.txt><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
<br>
</div></div></blockquote></div><br></div>