<div dir="ltr">Hi, I have a problem that is easily solvable with 8 processes, (by easily I mean with few iterations). Using PCFIELDSPLIT, I get 2 outer iterations and 6 inner iterations, reaching residual norm of 1e-8. The system have 786432 unknowns in total, and the solver setting is given by:<br><br>    PetscOptionsInsertString(NULL,<span class="gmail-im"><br>        "-ksp_type fgmres "<br>        "-pc_type fieldsplit "<br>        "-pc_fieldsplit_detect_saddle_<wbr>point "<br>        "-pc_fieldsplit_type schur "<br>        "-pc_fieldsplit_schur_fact_<wbr>type full "<br>        "-pc_fieldsplit_schur_<wbr>precondition self "<br>        "-fieldsplit_0_ksp_type bcgs "<br>        "-fieldsplit_0_pc_type hypre "<br>        "-fieldsplit_1_ksp_type gmres "<br>        "-fieldsplit_1_pc_type lsc "<br>        "-fieldsplit_1_lsc_pc_type hypre "<br></span>        "-fieldsplit_1_lsc_pc_hypre_<wbr>boomeramg_cycle_type w");<div><br></div><div>Problem is, it is slow, (compared to less complex systems, solvable simply with bcgs+hypre), and to try to speed things up, I've ran with 64 processes, which gives only 12288 unknowns per process. In this setting, inner iteration reaches the maximum of 15 iterations I set, and the outer iteration couldn't lower the residual norm from 1e2 after 20 iterations.<br><br>Is this supposed to happen? Increasing the number of parallel processes is supposed to worsen the solver performance? I just want to clear this issue from Petsc and Hypre side if possible, so if I ever experience such behavior again, I can be sure my code is wrong...<br></div><div><br>-- <br><div class="gmail-m_7941801565143948590gmail-m_7828426361706057140gmail_signature">Lucas Clemente Vella<br><a href="mailto:lvella@gmail.com" target="_blank">lvella@gmail.com</a></div>
</div></div>