On Fri, Apr 13, 2012 at 11:37 AM, recrusader <span dir="ltr">&lt;<a href="mailto:recrusader@gmail.com">recrusader@gmail.com</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear PETSc developers,<br><br>my question is what type of array is need for <font size="4">VecCreateMPIWithArray?<br>it is parallel distributed, that each processor holds local values of the array? or each processor has a copy of all the values of the array?<br>

</font>
<pre><font size="4"></font></pre></blockquote><div><br></div><div>Only local values.</div><div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<pre><font size="4">PetscErrorCode  VecCreateMPIWithArray(MPI_Comm comm,PetscInt n,PetscInt N,const PetscScalar array[],Vec *vv)</font></pre>I didn&#39;t find more information about the array from the manual.<br><a href="http://www.mcs.anl.gov/petsc/petsc-current/docs/manualpages/Vec/VecCreateMPIWithArray.html" target="_blank">http://www.mcs.anl.gov/petsc/petsc-current/docs/manualpages/Vec/VecCreateMPIWithArray.html</a><br>

<br>Thanks a lot,<br>Yujie<br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>