<div dir="ltr">Thank you very much Junchao, super helpful. </div><br><div class="gmail_quote"><div dir="ltr">On Fri, Sep 7, 2018 at 9:07 PM Junchao Zhang <<a href="mailto:jczhang@mcs.anl.gov">jczhang@mcs.anl.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>I have two PETSc pull requests for VecScatter: PR #1037 adds MPI3 process shared memory, and PR #1047 adds MPI3 neighborhood collective (MPI_Ineighbor_alltoallv).</div><div>In the master branch, there already is another approach applying MPI3 process shared memory to VecScatter. You can enable it with command line option -vecscatter_type mpi3</div><div><br clear="all"><div><div dir="ltr" class="m_-1397829546054975232gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">--Junchao Zhang</div></div></div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Fri, Sep 7, 2018 at 12:26 PM Tamara Dancheva <<a href="mailto:tamaradanceva19933@gmail.com" target="_blank">tamaradanceva19933@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div><br></div><div>I am developing an asynchronous method for a FEM solver, and need a custom implementation of the VecScatterBegin and VecScatterEnd routines. Since PETSc uses its own limited set of MPI functions, could you tell what would be the best way possible to extend upon it and use for example the non-blocking collectives, igatherv and so on? </div><div><br></div><div>I hope the question is specific enough, let me know if anything, I can provide with more information. I would very much appreciate any help, thanks in advance! </div><div><br></div><div>Best,</div><div>Tamara</div></div>
</blockquote></div>
</blockquote></div>