<div dir="ltr"><font face="arial, sans-serif">We are solving the Direct Problem of <span style="color:rgb(51,51,51);background-color:rgb(247,247,247)">Controlled Source Electromagnetics (CSEM) </span>using finite difference discretization.</font><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Em qua., 8 de nov. de 2023 às 13:22, Jed Brown <<a href="mailto:jed@jedbrown.org">jed@jedbrown.org</a>> escreveu:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">What sort of problem are you solving? Algebraic multigrid like gamg or hypre are good choices for elliptic problems. Sparse triangular solves have horrific efficiency even on one GPU so you generally want to do your best to stay away from them.<br>
<br>
"Ramoni Z. Sedano Azevedo" <<a href="mailto:ramoni.zsedano@gmail.com" target="_blank">ramoni.zsedano@gmail.com</a>> writes:<br>
<br>
> Hey!<br>
><br>
> I am using PETSC in Fortran code and we apply the MPI process to<br>
> parallelize the code.<br>
><br>
> At the moment, the options that have been used are<br>
> -ksp_monitor_true_residual<br>
> -ksp_type bcgs<br>
> -pc_type bjacobi<br>
> -sub_pc_type ilu<br>
> -sub_pc_factor_levels 3<br>
> -sub_pc_factor_fill 6<br>
><br>
> Now, we want to use multiple GPUs and I would like to know if there is a<br>
> better solver and preconditioner pair to apply in this case.<br>
><br>
> Yours sincerely,<br>
> Ramoni Z. S . Azevedo<br>
</blockquote></div>