<div dir="ltr">Yes, I do have superlu_dist built with petsc.<div>The command I used for launching simulation is<div><br></div><div>mpiexec  --mca btl self,vader,tcp  </div><div>               -np 4  python3 .../main.py ./input_ls  </div><div>               -pc_type lu -pc_factor_mat_solver_type superlu_dist -pc_asm_type basic -cuda_device NONE<br></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Sep 27, 2021 at 6:43 PM Satish Balay <<a href="mailto:balay@mcs.anl.gov">balay@mcs.anl.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Do you have petsc built with superlu_dist?<br>
<br>
Satish<br>
<br>
On Mon, 27 Sep 2021, Yiyang Li wrote:<br>
<br>
> Hello,<br>
> <br>
> I have CUDA aware MPI, and I have upgraded from PETSc 3.12 to PETSc 3.15.4<br>
> and petsc4py 3.15.4.<br>
> <br>
> Now, when I call<br>
> <br>
> PETSc.KSP().solve(..., ...)<br>
> <br>
> The information of GPU is always printed to stdout by every MPI rank, like<br>
> <br>
> CUDA version:   v 11040<br>
> CUDA Devices:<br>
> <br>
> 0 : Quadro P4000 6 1<br>
>   Global memory:   8105 mb<br>
>   Shared memory:   48 kb<br>
>   Constant memory: 64 kb<br>
>   Block registers: 65536<br>
> <br>
> CUDA version:   v 11040<br>
> CUDA Devices:<br>
> <br>
> 0 : Quadro P4000 6 1<br>
>   Global memory:   8105 mb<br>
>   Shared memory:   48 kb<br>
>   Constant memory: 64 kb<br>
>   Block registers: 6553<br>
> <br>
> ...<br>
> <br>
> I wonder if there is an option to turn that off?<br>
> I have tried including<br>
> <br>
> -cuda_device NONE<br>
> <br>
> in command options, but that did not work.<br>
> <br>
> Best regards,<br>
> Yiyang<br>
> <br>
<br>
</blockquote></div>