Hi,<div><br></div><div>Thanks for the reply. Are there any old version which use Nemesis channel?</div><div>Thanks.</div><div><br></div><div>Regards,</div><div>Koh<br><br><div class="gmail_quote">On Mon, Feb 28, 2011 at 9:34 PM, Jayesh Krishna <span dir="ltr">&lt;<a href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hi,<br>
 Try the latest stable release of MPICH2 (<a href="http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads" target="_blank">http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads</a>).<br>

 It looks like you are explicitly using the sock channel (with &quot;-channel sock&quot; option of mpiexec) for running your MPI job. Is there any reason why you want to use the sock channel instead of the default nemesis channel (If you don&#39;t use the &quot;-channel&quot; option mpiexec should pick the nemesis channel) ? Sock channel is old and we recommend all users to use the Nemesis channel instead.<br>

<br>
Regards,<br>
Jayesh<br>
<div><div></div><div class="h5">----- Original Message -----<br>
From: &quot;Koh Voon Li&quot; &lt;<a href="mailto:kohvoonli@gmail.com">kohvoonli@gmail.com</a>&gt;<br>
To: <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
Sent: Sunday, February 27, 2011 8:47:39 PM<br>
Subject: [mpich-discuss] mpich2-1.2.1p1 runs for a while and failed<br>
<br>
<br>
<br>
Hi, I am running 2 PC both with Window 7 home premium edition for parallel calculation by using MPICH2 version mpich2-1.2.1p1, it run for 3D FDS calculation which runs for a while and then fails with a number of MPI error messages as below.<br>

<br>
<br>
<br>
Fatal error in MPI_Allreduce: Other MPI error, error stack:<br>
MPI_Allreduce(773)........................: MPI_Allreduce(sbuf=000000003FC70738,<br>
rbuf=000000003FC706F8, count=10, MPI_LOGICAL, MPI_LXOR, MPI_COMM_WORLD) failed<br>
MPIR_Bcast(1031)..........................:<br>
MPIR_Bcast_binomial(157)..................:<br>
MPIC_Recv(83).............................:<br>
MPIC_Wait(513)............................:<br>
MPIDI_CH3i_Progress_wait(215).............: an error occurred while handling an<br>
event returned by MPIDU_Sock_Wait()<br>
MPIDI_CH3I_Progress_handle_sock_event(420):<br>
MPIDU_Sock_wait(2606).....................: The semaphore timeout period has exp<br>
ired. (errno 121)<br>
Fatal error in MPI_Allreduce: Other MPI error, error stack:<br>
MPI_Allreduce(773)........................: MPI_Allreduce(sbuf=000000003FC707B8,<br>
rbuf=000000003FC70778, count=10, MPI_LOGICAL, MPI_LXOR, MPI_COMM_WORLD) failed<br>
MPIR_Allreduce(289).......................:<br>
MPIC_Sendrecv(164)........................:<br>
MPIC_Wait(513)............................:<br>
MPIDI_CH3i_Progress_wait(215).............: an error occurred while handling an<br>
event returned by MPIDU_Sock_Wait()<br>
MPIDI_CH3I_Progress_handle_sock_event(420):<br>
MPIDU_Sock_wait(2606).....................: The semaphore timeout period has exp<br>
ired. (errno 121)<br>
<br>
<br>
I tried to ping test on each PC and its failed. It seem like I got no response from the network adapter.<br>
I disabled the network adapter and enabled it then everything seem to be normal again.<br>
Both PC are connected by using a crossover cable.<br>
Thanks.<br>
Regards,<br>
Koh<br>
<br>
<br>
<br>
</div></div>_______________________________________________<br>
mpich-discuss mailing list<br>
<a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
</blockquote></div><br></div>