<table cellspacing="0" cellpadding="0" border="0" ><tr><td valign="top" style="font: inherit;">FYI, I use C++ and mpicxx to complie files. I also tried write my code in C and used mpicc to complie - got the same result.<br><br>--- On <b>Sat, 7/18/09, Gra zeus <i>&lt;gra_zeus@yahoo.com&gt;</i></b> wrote:<br><blockquote style="border-left: 2px solid rgb(16, 16, 255); margin-left: 5px; padding-left: 5px;"><br>From: Gra zeus &lt;gra_zeus@yahoo.com&gt;<br>Subject: Re: [mpich-discuss] I wonder if my mpdboot is the cause of problem...help me!<br>To: mpich-discuss@mcs.anl.gov<br>Date: Saturday, July 18, 2009, 3:31 AM<br><br><div id="yiv1072466995"><table cellspacing="0" cellpadding="0" border="0"><tbody><tr><td valign="top" style="font:inherit;">yes, mpdtrace show both node. I use version mpich2-1.1 from download page. My OS is REHL 5. when I run my program, if MPI_Send and MPI_Recv are not used, it worked. printf or cout from both machines appear in my console
 normally.&nbsp;<br><br>--- On <b>Fri, 7/17/09, Pavan Balaji <i>&lt;balaji@mcs.anl.gov&gt;</i></b> wrote:<br><blockquote style="border-left:2px solid rgb(16, 16, 255);margin-left:5px;padding-left:5px;"><br>From: Pavan Balaji &lt;balaji@mcs.anl.gov&gt;<br>Subject: Re: [mpich-discuss] I wonder if my mpdboot is the cause of problem...help me!<br>To: mpich-discuss@mcs.anl.gov<br>Date: Friday, July 17, 2009, 10:12 PM<br><br><div class="plainMail"><br>Does mpdtrace show both nodes? Which version of MPICH2 are you using?<br><br> -- Pavan<br><br>On 07/18/2009 12:05 AM, Gra zeus wrote:<br>&gt; hello,<br>&gt; <br>&gt; thx for answer yesterday.<br>&gt;
 I tested my code in one machine (with"mpiexec -n 2 ./myprog"),everything work fine - my program can use MPI_Send,MPI_Recv without any problems.<br>&gt; <br>&gt; today, I setup mpich2 on two machines. Both machines can communicate with others, ssh are tested on both machines, mpd work, mpdringtest work.<br>&gt; <br>&gt; however,when i run my program that use MPI_Send and MPI_Recv,&nbsp; MPI_Recv is blocked forever.<br>&gt; so i write new simple code to test MPI_Send,MPI_Recv like this<br>&gt; <br>&gt;&nbsp; &nbsp; &nbsp; &nbsp;&nbsp;&nbsp;int myrank;<br>&gt;&nbsp; &nbsp; &nbsp; &nbsp;&nbsp;&nbsp;MPI_Status status;<br>&gt; MPI_Init( &amp;argc, &amp;argv );<br>&gt; MPI_Comm_rank( MPI_COMM_WORLD, &amp;myrank );<br>&gt; if (myrank == 0) {<br>&gt; int senddata = 1;<br>&gt; MPI_Send(&amp;senddata, 1, MPI_INT, 1, 0, MPI_COMM_WORLD);<br>&gt; }<br>&gt; else if (myrank == 1) {<br>&gt; int recvdata = 0;<br>&gt; MPI_Recv(&amp;recvdata, 1, MPI_INT, 0, 0,
 MPI_COMM_WORLD, &amp;status);<br>&gt; printf("received :%d:\n", recvdata);<br>&gt; }<br>&gt; MPI_Finalize();<br>&gt; <br>&gt; <br>&gt; i got this error<br>&gt; <br>&gt; <br>&gt; Assertion failed in file ch3_progress.c at line 489: pkt-&gt;type &gt;= 0 &amp;&amp; pkt-&gt;type &lt; MPIDI_NEM_PKT_END<br>&gt; internal ABORT - process 1<br>&gt; Fatal error in MPI_Finalize: Other MPI error, error stack:<br>&gt; MPI_Finalize(315)..................: MPI_Finalize failed<br>&gt; MPI_Finalize(207)..................: MPID_Finalize(92)..................: PMPI_Barrier(476)..................: MPI_Barrier(comm=0x44000002) failed<br>&gt; MPIR_Barrier(82)...................: MPIC_Sendrecv(164).................: MPIC_Wait(405).....................: MPIDI_CH3I_Progress(150)...........: MPID_nem_mpich2_blocking_recv(1074): MPID_nem_tcp_connpoll(1667)........: state_commrdy_handler(1517)........: MPID_nem_tcp_recv_handler(1413)....: socket closed<br>&gt; <br>&gt;
 ////////////////////////////////////////////////////////////////<br>&gt; <br>&gt; I also tried example/cpi that come with install package -&gt; result is the example program freezed, without any errors.(I assume it stopped at MPI_Bcast())<br>&gt; <br>&gt; Can anyone help me with this?<br>&gt; This code and my program can run smoothly when I use 1 machine (with option ,&nbsp; -n 2, -n 4 .... etc) but whenever I start mpdboot with 2 machines, mpi processes can't communicate with other mpi processes via MPI_Send,MPI_Recv.<br>&gt; <br>&gt; thx,<br>&gt; gra<br>&gt; <br>&gt; <br>&gt; <br><br>-- Pavan Balaji<br><a rel="nofollow" target="_blank" href="http://www.mcs.anl.gov/~balaji">http://www.mcs.anl.gov/~balaji</a><br></div></blockquote></td></tr></tbody></table><br>



      </div></blockquote></td></tr></table><br>