<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Fri, Feb 19, 2016 at 6:33 PM, Randall Mackie <span dir="ltr"><<a href="mailto:rlmackie862@gmail.com" target="_blank">rlmackie862@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I am trying to do a VecScatter of a subset of elements from a global vector on one DMDA to a global vector on a different DMDA (different sized DMDAs).<br>
<br>
I thought what made sense was to create a parallel IS using the local to global mapping obtained from the two DMDAs so that the local portion of each IS contained only the values on that processor.<br>
<br>
This works fine as long as the local size of the two IS’s are the same.<br>
<br>
But, say I have a situation like this:<br>
<br>
DMDA 1:<br>
  proc 1: 1 value to scatter<br>
  proc 2: 7 values to scatter<br>
<br>
<br>
DMDA 2:<br>
  proc 1: 4 values to get<br>
  proc 2: 4 values to get<br>
<br>
This doesn’t work because VecScatterCreate says the local size of the IS’s must be the same.<br>
<br>
Is the only way to set up this VecScatter to create a sequential IS on each processor of length 8 and duplicate the values?<br></blockquote><div><br></div><div>The two inputs are</div><div><br></div><div>  index of input vector --> input of output vector</div><div><br></div><div>and you can have as many entries of this map on any process as you want. Clearly, you</div><div>need the same number of entires in each IS to make this map meaningful. Does that make</div><div>sense?</div><div><br></div><div>  Thanks,</div><div><br></div><div>    Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Thanks,<br>
<br>
Randy M.<br>
<br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</div></div>