<div><includetail><div>hi, I am sorry to trouble you ,but could you send me a copy of mpich2-1.2.1p1.exe, I want to use this version, because the new version has some problem for me <br><br>thank you&nbsp; <br><br>Kay<br></div><div style="font:Verdana normal 14px;color:#000;"><div style="FONT-SIZE: 12px;FONT-FAMILY: Arial Narrow;padding:2px 0 2px 0;">------------------&nbsp;Original&nbsp;------------------</div><div style="FONT-SIZE: 12px;background:#efefef;padding:8px;"><div id="menu_sender"><b>From: </b>&nbsp;"Koh Voon Li"&lt;kohvoonli@gmail.com&gt;;</div><div><b>Date: </b>&nbsp;Fri, Mar 4, 2011 11:40 AM</div><div><b>To: </b>&nbsp;"Jayesh Krishna"&lt;jayesh@mcs.anl.gov&gt;; <wbr></div><div><b>Cc: </b>&nbsp;"mpich-discuss"&lt;mpich-discuss@mcs.anl.gov&gt;; <wbr></div><div><b>Subject: </b>&nbsp;Re: [mpich-discuss] mpich2-1.2.1p1 runs for a while and failed</div></div><div>&nbsp;</div>
Hi,�<div>Is there anyway to know that I am running with nemesis channel instead of sock channel?</div><div>I am launching my job via config file which is something look like this as below.</div><div><div><br></div><div>channel</div>
<div>nemesis</div><div>exe \\FDS2-PC\Project\Paradigm\V20\fds5_mpi_win_64.exe Paradigmv4-20.fds</div><div>dir \\FDS2-PC\Project\Paradigm\V20\</div><div>hosts�</div><div>FDS2-PC 6</div><div>WIN7-PC 6</div></div><div><br></div>
<div>Thanks.</div><div><br></div><div>Regards,</div><div>Koh</div><div><br><div class="gmail_quote">On Wed, Mar 2, 2011 at 12:06 AM, Jayesh Krishna <span dir="ltr">&lt;<a href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hi,<br>
�With MPICH2 1.2.1p1 you should be able to use the Nemesis channel using the "-channel" option of mpiexec (mpiexec -n 2 -channel nemesis mympipgm.exe).<br>
<div class="im"><br>
Regards,<br>
Jayesh<br>
<br>
----- Original Message -----<br>
From: "Koh Voon Li" &lt;<a href="mailto:kohvoonli@gmail.com">kohvoonli@gmail.com</a>&gt;<br>
</div><div><div></div><div class="h5">To: "Jayesh Krishna" &lt;<a href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a>&gt;<br>
Cc: <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
Sent: Tuesday, March 1, 2011 6:39:25 AM<br>
Subject: Re: [mpich-discuss] mpich2-1.2.1p1 runs for a while and failed<br>
<br>
Hi,<br>
<br>
<br>
Thanks for the reply. Are there any old version which use Nemesis channel?<br>
Thanks.<br>
<br>
<br>
Regards,<br>
Koh<br>
<br>
<br>
On Mon, Feb 28, 2011 at 9:34 PM, Jayesh Krishna &lt; <a href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a> &gt; wrote:<br>
<br>
<br>
Hi,<br>
Try the latest stable release of MPICH2 ( <a href="http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads" target="_blank">http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads</a> ).<br>

It looks like you are explicitly using the sock channel (with "-channel sock" option of mpiexec) for running your MPI job. Is there any reason why you want to use the sock channel instead of the default nemesis channel (If you don't use the "-channel" option mpiexec should pick the nemesis channel) ? Sock channel is old and we recommend all users to use the Nemesis channel instead.<br>

<br>
Regards,<br>
Jayesh<br>
<br>
<br>
<br>
----- Original Message -----<br>
From: "Koh Voon Li" &lt; <a href="mailto:kohvoonli@gmail.com">kohvoonli@gmail.com</a> &gt;<br>
To: <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
Sent: Sunday, February 27, 2011 8:47:39 PM<br>
Subject: [mpich-discuss] mpich2-1.2.1p1 runs for a while and failed<br>
<br>
<br>
<br>
Hi, I am running 2 PC both with Window 7 home premium edition for parallel calculation by using MPICH2 version mpich2-1.2.1p1, it run for 3D FDS calculation which runs for a while and then fails with a number of MPI error messages as below.<br>

<br>
<br>
<br>
Fatal error in MPI_Allreduce: Other MPI error, error stack:<br>
MPI_Allreduce(773)........................: MPI_Allreduce(sbuf=000000003FC70738,<br>
rbuf=000000003FC706F8, count=10, MPI_LOGICAL, MPI_LXOR, MPI_COMM_WORLD) failed<br>
MPIR_Bcast(1031)..........................:<br>
MPIR_Bcast_binomial(157)..................:<br>
MPIC_Recv(83).............................:<br>
MPIC_Wait(513)............................:<br>
MPIDI_CH3i_Progress_wait(215).............: an error occurred while handling an<br>
event returned by MPIDU_Sock_Wait()<br>
MPIDI_CH3I_Progress_handle_sock_event(420):<br>
MPIDU_Sock_wait(2606).....................: The semaphore timeout period has exp<br>
ired. (errno 121)<br>
Fatal error in MPI_Allreduce: Other MPI error, error stack:<br>
MPI_Allreduce(773)........................: MPI_Allreduce(sbuf=000000003FC707B8,<br>
rbuf=000000003FC70778, count=10, MPI_LOGICAL, MPI_LXOR, MPI_COMM_WORLD) failed<br>
MPIR_Allreduce(289).......................:<br>
MPIC_Sendrecv(164)........................:<br>
MPIC_Wait(513)............................:<br>
MPIDI_CH3i_Progress_wait(215).............: an error occurred while handling an<br>
event returned by MPIDU_Sock_Wait()<br>
MPIDI_CH3I_Progress_handle_sock_event(420):<br>
MPIDU_Sock_wait(2606).....................: The semaphore timeout period has exp<br>
ired. (errno 121)<br>
<br>
<br>
I tried to ping test on each PC and its failed. It seem like I got no response from the network adapter.<br>
I disabled the network adapter and enabled it then everything seem to be normal again.<br>
Both PC are connected by using a crossover cable.<br>
Thanks.<br>
Regards,<br>
Koh<br>
<br>
<br>
<br>
_______________________________________________<br>
mpich-discuss mailing list<br>
<a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
<br>
</div></div></blockquote></div><br></div>

</div></includetail></div>