<div class="gmail_quote">Pieter, you should pull the latest to get the fix for this ticket. I don&#39;t know whether it could affect your current observations, but it could trip you up anyway (depending on how your implementation works).</div>
<div class="gmail_quote"><br></div><div class="gmail_quote"><a href="http://trac.mcs.anl.gov/projects/mpich2/ticket/1601">http://trac.mcs.anl.gov/projects/mpich2/ticket/1601</a></div><div class="gmail_quote"><br></div><div class="gmail_quote">
On Sat, Apr 7, 2012 at 02:42, Pieter Ghysels <span dir="ltr">&lt;<a href="mailto:pieter.ghysels@ua.ac.be">pieter.ghysels@ua.ac.be</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Ah, yes, sorry for the confusion. I am also overlapping the<br>
MPIX_Iallreduce with other (one-sided) MPI calls. But these calls are<br>
buried in the library I use, and I&#39;m not so familiar with one sided<br>
communication. But I was told that there are no calls to MPI_Win_create<br>
or MPI_Win_free, except at the very beginning and end of the program.<br>
<br>
Is it possible to overlap different MPI calls like that?<br>
<br>
I configured MPICH2 with<br>
--enable-threads=runtime<br>
and initialized with<br>
MPI_Init_thread(argc, argv, MPI_THREAD_MULTIPLE, &amp;thread_support);<br>
<br>
<br>
Pieter<br>
<div class="HOEnZb"><div class="h5"><br>
On Fri, 2012-04-06 at 19:27 -0500, Jeff Hammond wrote:<br>
&gt; One way to implement nonblocking allreduce would be to use<br>
&gt; MPI_Accumulate, so it doesn&#39;t seem entirely nuts.  I presume you know<br>
&gt; the MPICH2 implementation of MPIX_Iallreduce does not use RMA...<br>
&gt;<br>
&gt; Jeff<br>
&gt;<br>
&gt; On Fri, Apr 6, 2012 at 6:24 PM, Rajeev Thakur &lt;<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>&gt; wrote:<br>
&gt; &gt; You mean your program doesn&#39;t call MPI_Win_create and MPI_win_free but Jumpshot shows them? No, that&#39;s not normal.<br>
&gt; &gt;<br>
&gt; &gt; Rajeev<br>
&gt; &gt;<br>
&gt; &gt; On Apr 6, 2012, at 3:14 PM, Pieter Ghysels wrote:<br>
&gt; &gt;<br>
&gt; &gt;&gt; Dear,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; I&#39;m replacing calls to MPI_Allreduce by calls to MPIX_Iallreduce.<br>
&gt; &gt;&gt; I&#39;m compiling with -mpe=mpilog and look at the communication pattern<br>
&gt; &gt;&gt; with jumpshot. The MPI_Allreduce&#39;s are gone now of course, but<br>
&gt; &gt;&gt; mpe/jumpshot does not show MPIX_Iallreduce. Instead, where the<br>
&gt; &gt;&gt; MPI_Allreduce used to be, now a lot of time is being spent in<br>
&gt; &gt;&gt; MPI_Win_create and MPI_Win_free, where before the MPI_Allreduce was<br>
&gt; &gt;&gt; taking place. Is this normal?<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Can I configure MPICH2 to use a progress thread for the nonblocking<br>
&gt; &gt;&gt; collectives, as in libNBC?<br>
&gt; &gt;&gt; Do I have to use MPI_Init_thread()?<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Pieter<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; _______________________________________________<br>
&gt; &gt;&gt; mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
&gt; &gt;&gt; To manage subscription options or unsubscribe:<br>
&gt; &gt;&gt; <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
&gt; &gt; To manage subscription options or unsubscribe:<br>
&gt; &gt; <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
_______________________________________________<br>
mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
</div></div></blockquote></div><br>