<div dir="ltr">I assume you are using PETSc to load matices. What example are you looking at?</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Dec 6, 2021 at 11:04 PM Faraz Hussain via petsc-users <<a href="mailto:petsc-users@mcs.anl.gov">petsc-users@mcs.anl.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I am studying the examples but it seems all ranks read the full matrix. Is there an MPI example where only rank 0 reads the matrix? <br>
<br>
I don't want all ranks to read my input matrix and consume a lot of memory allocating data for the arrays. <br>
<br>
I have worked with Intel's cluster sparse solver and their documentation states:<br>
<br>
" Most of the input parameters must be set on the master MPI process only, and ignored on other processes. Other MPI processes get all required data from the master MPI process using the MPI communicator, comm. "<br>
</blockquote></div>