<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content="text/html; charset=us-ascii" http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.18783"></HEAD>
<BODY>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009>Hi,</SPAN></FONT></DIV>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009>&nbsp;The version of MPICH2 that you are using, 
1.0.5p3, is old. Try the latest stable release, 1.1.1, of MPICH2 (<A 
href="http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads">http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads</A>)&nbsp;and 
let us know if you still have problems.</SPAN></FONT></DIV>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009>&nbsp; Please provide us a test case&nbsp;to reproduce 
the problem, if possible, if the problem persists.</SPAN></FONT></DIV>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009></SPAN></FONT>&nbsp;</DIV>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009>Regards,</SPAN></FONT></DIV>
<DIV dir=ltr align=left><FONT color=#0000ff size=2 face=Arial><SPAN 
class=031471014-28072009>Jayesh</SPAN></FONT></DIV><BR>
<DIV dir=ltr lang=en-us class=OutlookMessageHeader align=left>
<HR tabIndex=-1>
<FONT size=2 face=Tahoma><B>From:</B> mpich-discuss-bounces@mcs.anl.gov 
[mailto:mpich-discuss-bounces@mcs.anl.gov] <B>On Behalf Of </B>Suman 
Vajjala<BR><B>Sent:</B> Tuesday, July 28, 2009 12:44 AM<BR><B>To:</B> 
mpich-discuss@mcs.anl.gov<BR><B>Subject:</B> [mpich-discuss] Problem with 
mpich2-1.0.5.3<BR></FONT><BR></DIV>
<DIV></DIV>Hi,<BR><BR>&nbsp;&nbsp; I have a problem when running codes with mpi. 
I compile and run the code with mpich 2-1.0.5p3 and after sometime the code 
gives this error - <BR><BR>[cli_2]: aborting job:<BR>Fatal error in MPI_Recv: 
Other MPI error, error stack:<BR>MPI_Recv(186).............................: 
MPI_Recv(buf=0x31b58a0, count=584, MPI_DOUBLE_PRECISION, src=3, tag=1, 
MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(633)..............: 
connection failure (set=0,sock=2,errno=104:Connection reset by peer)<BR>[cli_0]: 
aborting job:<BR>Fatal error in MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x31b7d70, 
count=584, MPI_DOUBLE_PRECISION, src=1, tag=1, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=4)<BR>[cli_1]: [cli_4]: aborting 
job:<BR>Fatal error in MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x31b6b08, 
count=584, MPI_DOUBLE_PRECISION, src=2, tag=1, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=2)<BR>aborting job:<BR>Fatal error in 
MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x3178918, 
count=584, MPI_DOUBLE_PRECISION, src=3, tag=0, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=4)<BR>rank 4 in job 1&nbsp; 
master_32935&nbsp;&nbsp; caused collective abort of all ranks<BR>&nbsp; exit 
status of rank 4: killed by signal 9<BR>[cli_3]: aborting job:<BR>Fatal error in 
MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x3178918, 
count=584, MPI_DOUBLE_PRECISION, src=2, tag=0, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(633)..............: 
connection failure (set=0,sock=3,errno=104:Connection reset by peer)<BR>rank 3 
in job 1&nbsp; master_32935&nbsp;&nbsp; caused collective abort of all 
ranks<BR>&nbsp; exit status of rank 3: killed by signal 9<BR>[cli_2]: aborting 
job:<BR>Fatal error in MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x31b58a0, 
count=584, MPI_DOUBLE_PRECISION, src=3, tag=1, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(633)..............: 
connection failure (set=0,sock=2,errno=104:Connection reset by peer)<BR>[cli_0]: 
aborting job:<BR>Fatal error in MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x31b7d70, 
count=584, MPI_DOUBLE_PRECISION, src=1, tag=1, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=4)<BR>[cli_1]: [cli_4]: aborting 
job:<BR>Fatal error in MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x31b6b08, 
count=584, MPI_DOUBLE_PRECISION, src=2, tag=1, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=2)<BR>aborting job:<BR>Fatal error in 
MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x3178918, 
count=584, MPI_DOUBLE_PRECISION, src=3, tag=0, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(607)..............: 
connection closed by peer (set=0,sock=4)<BR>rank 4 in job 1&nbsp; 
master_32935&nbsp;&nbsp; caused collective abort of all ranks<BR>&nbsp; exit 
status of rank 4: killed by signal 9<BR>[cli_3]: aborting job:<BR>Fatal error in 
MPI_Recv: Other MPI error, error 
stack:<BR>MPI_Recv(186).............................: MPI_Recv(buf=0x3178918, 
count=584, MPI_DOUBLE_PRECISION, src=2, tag=0, MPI_COMM_WORLD, status=0x1122be0) 
failed<BR>MPIDI_CH3I_Progress(144)..................: handle_sock_op 
failed<BR>MPIDI_CH3I_Progress_handle_sock_event(175):<BR>MPIDU_Socki_handle_read(633)..............: 
connection failure (set=0,sock=3,errno=104:Connection reset by peer)<BR>rank 3 
in job 1&nbsp; master_32935&nbsp;&nbsp; caused collective abort of all 
ranks<BR>&nbsp; exit status of rank 3: killed by signal 9<BR><BR><BR>Can you 
please tell me the source of this error.<BR><BR>Regards<BR>Suman 
Vajjala<BR></BODY></HTML>