<div><BR>It seems to work for Niagara 1.&nbsp;&nbsp;&nbsp; At least it passed the set of crazy tests I have.</div>  <div>&nbsp;</div>  <div>thanks</div>  <div>&nbsp;</div>  <div>tan</div>  <div><BR><B><I>Darius Buntinas &lt;buntinas@mcs.anl.gov&gt;</I></B> wrote:</div>  <BLOCKQUOTE class=replbq style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #1010ff 2px solid"><BR>It seems to be working on linux, but we don't have a solaris box to try <BR>it on. Can you try it and let us know?<BR><BR>-d<BR><BR>On 09/17/2007 12:07 PM, chong tan wrote:<BR>&gt; In the 'change liost' of the new 106 release, I see thie item:<BR>&gt; <BR>&gt; # Bugfix for shm and ssm channels. Added missing read and write memory <BR>&gt; barriers for x86, and missing volatile in packet structure<BR>&gt; <BR>&gt; does it means this problem is fixed ?<BR>&gt; <BR>&gt; thanks<BR>&gt; <BR>&gt; <BR>&gt; */William Gropp <GROPP@MCS.ANL.GOV>/* wrote:<BR>&gt; <BR>&gt; We're looking at it; I've added a variation
 of this to our regular<BR>&gt; tests. No solution yet, however. My guess is that there is a<BR>&gt; missing volatile or memory barrier somewhere; this should force us<BR>&gt; to clean up the current code.<BR>&gt; <BR>&gt; Bill<BR>&gt; <BR>&gt; On May 16, 2007, at 12:18 PM, chong tan wrote:<BR>&gt; <BR>&gt;&gt; No taker on this ? There is an identical proble on Linux. Just<BR>&gt;&gt; that I am not sure if this code can reproduce the problem. <BR>&gt;&gt; tan<BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; <BR>&gt;&gt; ----- Original Message ----<BR>&gt;&gt; From: chong tan <CHONG_GUAN_TAN@YAHOO.COM<BR>&gt;&gt; <mailto:chong_guan_tan@yahoo.com>&gt;<BR>&gt;&gt; To: mpich-discuss@mcs.anl.gov <mailto:mpich-discuss@mcs.anl.gov><BR>&gt;&gt; Sent: Friday, April 27, 2007 3:24:09 PM<BR>&gt;&gt; Subject: Re: [MPICH] MPICH105 shm drops packages on SUN niagara<BR>&gt;&gt;<BR>&gt;&gt; The following code reproduces the problem. I think you maybe able<BR>&gt;&gt; to reproduce the error
 on<BR>&gt;&gt; Linux, but I am not sure.<BR>&gt;&gt; <BR>&gt;&gt; <BR>&gt;&gt; It is best to run :<BR>&gt;&gt; mpiexec -n 8 a.out<BR>&gt;&gt; to reproduce the problem. You will need a machine with<BR>&gt;&gt; 8CPU/cores. SOmetime you will need to<BR>&gt;&gt; run the code multiple time to see the error.<BR>&gt;&gt; <BR>&gt;&gt; there will be files fast_mpi_?.dmp created, where ? is the rank of<BR>&gt;&gt; the related 'rank'. When MPI get stuck,<BR>&gt;&gt; you should look at the last line of fast_mpi_0.dmp. If it says:<BR>&gt;&gt;<BR>&gt;&gt; read from child 7<BR>&gt;&gt; <BR>&gt;&gt; then you should look at the last line of fast_mpi_7.dmp, it will say:<BR>&gt;&gt; read from master<BR>&gt;&gt; <BR>&gt;&gt; hope this help to debug the error.<BR>&gt;&gt; <BR>&gt;&gt; thanks<BR>&gt;&gt; tan<BR>&gt;&gt;<BR>&gt;&gt; ---------------------<BR>&gt;&gt; #include "stdlib.h"<BR>&gt;&gt; #include "stdio.h"<BR>&gt;&gt; #include "mpi.h"<BR>&gt;&gt; <BR>&gt;&gt; #define LOOP_COUNT
 1000000<BR>&gt;&gt; #define DATA_SIZE 4<BR>&gt;&gt; #define MP_TAG 999<BR>&gt;&gt; main()<BR>&gt;&gt; {<BR>&gt;&gt; int nProc, rank ;<BR>&gt;&gt; int argc = 0 ;<BR>&gt;&gt; int i, j, status ;<BR>&gt;&gt; char buf[ 128 ] ;<BR>&gt;&gt; FILE *pf ;<BR>&gt;&gt; MPI_Init( &amp;argc, NULL ) ;<BR>&gt;&gt; MPI_Comm_size( MPI_COMM_WORLD, &amp;nProc ) ;<BR>&gt;&gt; MPI_Comm_rank( MPI_COMM_WORLD, &amp;rank ) ;<BR>&gt;&gt; sprintf( buf, "fast_mpi_%d.dmp", rank ) ;<BR>&gt;&gt; pf = fopen( buf, "w" ) ;<BR>&gt;&gt; if( !rank ) {<BR>&gt;&gt; int **psend ;<BR>&gt;&gt; int **precv ;<BR>&gt;&gt; psend = (int**)calloc( nProc, sizeof( int *) ) ;<BR>&gt;&gt; precv = (int**)calloc( nProc, sizeof( int *) ) ;<BR>&gt;&gt; for( i = 0 ; i &lt; nProc ; i++ ) {<BR>&gt;&gt; psend[ i ] = (int*)calloc( DATA_SIZE, sizeof( int ) ) ;<BR>&gt;&gt; precv[ i ] = (int*)calloc( DATA_SIZE, sizeof( int ) ) ;<BR>&gt;&gt; }<BR>&gt;&gt; for( i = 0 ; i &lt; LOOP_COUNT ; i++ ) {<BR>&gt;&gt; fprintf( pf, "Master : loop
 %d\n", i ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; for( j = 1 ; j &lt; nProc ; j++ ) {<BR>&gt;&gt; fprintf( pf, " read from child %d\n", j ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; status = MPI_Recv( precv[ j ], DATA_SIZE, MPI_LONG,<BR>&gt;&gt; j, MP_TAG, MPI_COMM_WORLD, MP<BR>&gt;&gt; I_STATUS_IGNORE ) ;<BR>&gt;&gt; fprintf( pf, " read from child %d done, status =<BR>&gt;&gt; %d\n", j, status ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; }<BR>&gt;&gt; for( j = 1 ; j &lt; nProc ; j++ ) {<BR>&gt;&gt; fprintf( pf, " send to child %d\n", j ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; status = MPI_Send( psend[ j ], DATA_SIZE - 1,<BR>&gt;&gt; MPI_LONG, j, MP_TAG, MPI_COMM_WORLD<BR>&gt;&gt; ) ;<BR>&gt;&gt; fprintf( pf, " send to child %d done, status =<BR>&gt;&gt; %d\n", j, status ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; }<BR>&gt;&gt; }<BR>&gt;&gt; } else {<BR>&gt;&gt; int *psend ;<BR>&gt;&gt; int *precv ;<BR>&gt;&gt; psend = (int*)calloc( DATA_SIZE, sizeof( int ) ) ;<BR>&gt;&gt;
 precv = (int*)calloc( DATA_SIZE, sizeof( int ) ) ;<BR>&gt;&gt; for( i = 0 ; i &lt; LOOP_COUNT ; i++ ) {<BR>&gt;&gt; fprintf( pf, " send to master\n" ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; status = MPI_Send( psend, DATA_SIZE - 1, MPI_LONG, 0,<BR>&gt;&gt; MP_TAG, MPI_COMM_WORLD ) ;<BR>&gt;&gt; fprintf( pf, " send to master done, status = %d\n",<BR>&gt;&gt; status ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; fprintf( pf, " read from master\n" ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; status = MPI_Recv( precv, DATA_SIZE, MPI_LONG, 0,<BR>&gt;&gt; MP_TAG, MPI_COMM_WORLD, MPI_STATUS_IGNORE ) ;<BR>&gt;&gt; fprintf( pf, " read from master done, status =<BR>&gt;&gt; %d\n", status ) ;<BR>&gt;&gt; fflush( pf ) ;<BR>&gt;&gt; }<BR>&gt;&gt; }<BR>&gt;&gt; fclose( pf ) ;<BR>&gt;&gt; MPI_Finalize() ;<BR>&gt;&gt; }<BR>&gt;&gt;<BR>&gt;&gt; ------------------------------------------------------------------------<BR>&gt;&gt; Ahhh...imagining that irresistible "new car" smell?<BR>&gt;&gt;
 Check out new cars at Yahoo! Autos.<BR>&gt;&gt; <HTTP: evt="48245/*http://autos.yahoo.com/new_cars.html;_ylc=X3oDMTE1YW1jcXJ2BF9TAzk3MTA3MDc2BHNlYwNtYWlsdGFncwRzbGsDbmV3LWNhcnM-" us.rd.yahoo.com><BR>&gt;&gt;<BR>&gt;&gt;<BR>&gt;&gt; ------------------------------------------------------------------------<BR>&gt;&gt; Be a better Heartthrob. Get better relationship answers<BR>&gt;&gt; <HTTP: evt="48255/*http://answers.yahoo.com/dir/_ylc=X3oDMTI5MGx2aThyBF9TAzIxMTU1MDAzNTIEX3MDMzk2NTQ1MTAzBHNlYwNCQUJwaWxsYXJfTklfMzYwBHNsawNQcm9kdWN0X3F1ZXN0aW9uX3BhZ2U-?link=list&amp;sid=396545433" us.rd.yahoo.com>from<BR>&gt;&gt; someone who knows.<BR>&gt;&gt; Yahoo! Answers - Check it out.<BR>&gt; <BR>&gt; <BR>&gt; ------------------------------------------------------------------------<BR>&gt; Luggage? GPS? Comic books?<BR>&gt; Check out fitting gifts for grads <BR>&gt; <HTTP: evt="48249/*http://search.yahoo.com/search?fr=oni_on_mail&amp;p=graduation+gifts&amp;cs=bz" us.rd.yahoo.com><BR>&gt;
 at Yahoo! Search.<BR></BLOCKQUOTE><BR></mailto:mpich-discuss@mcs.anl.gov></mailto:chong_guan_tan@yahoo.com><p>&#32;
      <hr size=1>Fussy? Opinionated? Impossible to please? Perfect.  <a href="http://us.rd.yahoo.com/evt=48516/*http://surveylink.yahoo.com/gmrs/yahoo_panel_invite.asp?a=7 ">Join Yahoo!'s user panel</a> and lay it on us.