<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META http-equiv=Content-Type content="text/html; charset=utf-8">
<STYLE>.hmmessage P {
        PADDING-RIGHT: 0px; PADDING-LEFT: 0px; PADDING-BOTTOM: 0px; MARGIN: 0px; PADDING-TOP: 0px
}
BODY.hmmessage {
        FONT-SIZE: 10pt; FONT-FAMILY: Verdana
}
</STYLE>

<META content="MSHTML 6.00.6000.16788" name=GENERATOR></HEAD>
<BODY class=hmmessage>
<DIV dir=ltr align=left><SPAN class=388285121-02022009><FONT face=Arial 
color=#0000ff>The error message "<FONT color=#000000>unable to find the process 
group structure with id &lt;&gt;"&nbsp;is odd. How exactly did you configure 
MPICH2? Were you able to set up an MPD ring on the two nodes 
successfully?</FONT></FONT></SPAN></DIV>
<DIV dir=ltr align=left><SPAN class=388285121-02022009><FONT 
face=Arial></FONT></SPAN>&nbsp;</DIV>
<DIV dir=ltr align=left><SPAN class=388285121-02022009><FONT 
face=Arial>Rajeev</FONT></SPAN></DIV><BR>
<BLOCKQUOTE 
style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #0000ff 2px solid; MARGIN-RIGHT: 0px">
  <DIV class=OutlookMessageHeader lang=en-us dir=ltr align=left>
  <HR tabIndex=-1>
  <FONT face=Tahoma><B>From:</B> mpich-discuss-bounces@mcs.anl.gov 
  [mailto:mpich-discuss-bounces@mcs.anl.gov] <B>On Behalf Of </B>Antonio José 
  Gallardo Díaz<BR><B>Sent:</B> Monday, February 02, 2009 12:39 PM<BR><B>To:</B> 
  mpich-discuss@mcs.anl.gov<BR><B>Subject:</B> Re: [mpich-discuss] Fatal error 
  in MPI_Barrier<BR></FONT><BR></DIV>
  <DIV></DIV>Hello. I Have tested to use the command:<BR><BR>mpiexec 
  -recvtimeout 30 -n 2 /home/mpi/mpich2-1.0.8/examples/cpi&nbsp;&nbsp; 
  <BR><BR>and this is the 
  result.<BR><BR>/********************************************************************************************************************************************************/ 
  &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>Process 0 of 2 is on 
  wireless&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>Process 1 of 2 is on 
  wireless2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>Fatal error in MPI_Bcast: Other MPI error, error 
  stack:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPI_Bcast(786)............................: MPI_Bcast(buf=0x7ffff732586c, 
  count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
  failed&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPIR_Bcast(230)...........................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPIC_Send(39).............................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPIC_Wait(270)............................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPIDI_CH3i_Progress_wait(215).............: an error occurred while 
  handling an event returned by 
  MPIDU_Sock_Wait()&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  <BR>MPIDI_CH3I_Progress_handle_sock_event(420):<BR>MPIDU_Socki_handle_read(637)..............: 
  connection failure (set=0,sock=1,errno=104:Connection reset by peer)[cli_0]: 
  aborting job:<BR>Fatal error in MPI_Bcast: Other MPI error, error 
  stack:<BR>MPI_Bcast(786)............................: 
  MPI_Bcast(buf=0x7ffff732586c, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
  failed<BR>MPIR_Bcast(230)...........................:<BR>MPIC_Send(39).............................:<BR>MPIC_Wait(270)............................:<BR>MPIDI_CH3i_Progress_wait(215).............: 
  an error occurred while handling an event returned by MPFatal error in 
  MPI_Bcast: Other MPI error, error 
  stack:<BR>MPI_Bcast(786)...............................: 
  MPI_Bcast(buf=0xbf82bec8, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
  failed<BR>MPIR_Bcast(198)..............................:<BR>MPIC_Recv(81)................................:<BR>MPIC_Wait(270)...............................:<BR>MPIDI_CH3i_Progress_wait(215)................: 
  an error occurred while handling an event returned by 
  MPIDU_Sock_Wait()<BR>MPIDI_CH3I_Progress_handle_sock_event(640)...:<BR>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
  unable to find the process group structure with id &lt;&gt;[cli_1]: aborting 
  job:<BR>Fatal error in MPI_Bcast: Other MPI error, error 
  stack:<BR>MPI_Bcast(786)...............................: 
  MPI_Bcast(buf=0xbf82bec8, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
  failed<BR>MPIR_Bcast(198)..............................:<BR>MPIC_Recv(81)................................:<BR>MPIC_Wait(270)...............................:<BR>MPIDI_CH3i_Progress_wait(215)................: 
  an error occurred while handling an event 
  rIDU_Sock_Wait()<BR>MPIDI_CH3I_Progress_handle_sock_event(420):<BR>MPIDU_Socki_handle_read(637)..............: 
  connection failure (set=0,sock=1,errno=104:Connection reset by 
  peer)<BR>eturned by 
  MPIDU_Sock_Wait()<BR>MPIDI_CH3I_Progress_handle_sock_event(640)...:<BR>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
  unable to find the process group structure with id &lt;&gt;<BR>rank 1 in job 
  21&nbsp; wireless_47695&nbsp;&nbsp; caused collective abort of all 
  ranks<BR>&nbsp; exit status of rank 1: return code 1<BR>rank 0 in job 21&nbsp; 
  wireless_47695&nbsp;&nbsp; caused collective abort of all ranks<BR>&nbsp; exit 
  status of rank 0: return code 
  1<BR><BR>/********************************************************************************************************************************************************/<BR><BR>The 
  mpdcheck said that has a problem with the first ip but it's solved.<BR>I 
  tested:<BR><BR>mpdcheck 
  -s&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
  and in the other node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; 
  mpdcheck -c "name" "number"&nbsp;&nbsp;&nbsp; --------------&gt;&nbsp;&nbsp; 
  Well.<BR>mpiexec -n 1 /bin/hostname 
  -------------------------------------------------------------------------------------------------------------&gt;&nbsp;&nbsp; 
  Well.<BR>mpiexec -l -n 4 /bin/hostname 
  ----------------------------------------------------------------------------------------------------------&gt;&nbsp;&nbsp; 
  Well.<BR><BR>I have to say that with all command i have to put the options 
  -recvtimeout 30 because but have problems. Without this option, say 
  me:<BR><BR>mpiexec_wireless (mpiexec 392): no msg recvd from mpd when 
  expecting ack of request<BR><BR><BR>What can i do?? Please help and sorry for 
  my poor english.<BR><BR><BR><BR>
  <HR id=stopSpelling>
  From: ajcampa@hotmail.com<BR>To: mpich-discuss@mcs.anl.gov<BR>Date: Mon, 2 Feb 
  2009 18:17:39 +0100<BR>Subject: Re: [mpich-discuss] Fatal error in 
  MPI_Barrier<BR><BR>
  <STYLE>.ExternalClass .EC_hmmessage P {
        PADDING-RIGHT: 0px; PADDING-LEFT: 0px; PADDING-BOTTOM: 0px; PADDING-TOP: 0px
}
.ExternalClass BODY.EC_hmmessage {
        FONT-SIZE: 10pt; FONT-FAMILY: Verdana
}
</STYLE>
  Well, thanks for your answer.&nbsp; Really, the name of mi pc is "Wireless" 
  and the othes pc "Wireless2", i use in the two pc, the same user "mpi". 
  <BR><BR>I will try the mpdchech utility and then write something.<BR><BR>Thank 
  for all.<BR><BR>Un saludo desde España.<BR><BR>
  <HR id=EC_stopSpelling>
  From: thakur@mcs.anl.gov<BR>To: mpich-discuss@mcs.anl.gov<BR>Date: Mon, 2 Feb 
  2009 10:55:03 -0600<BR>Subject: Re: [mpich-discuss] Fatal error in 
  MPI_Barrier<BR><BR>
  <STYLE>.ExternalClass .EC_hmmessage P {
        PADDING-RIGHT: 0px; PADDING-LEFT: 0px; PADDING-BOTTOM: 0px; PADDING-TOP: 0px
}
.ExternalClass BODY.EC_hmmessage {
        FONT-SIZE: 10pt; FONT-FAMILY: Verdana
}
</STYLE>

  <DIV dir=ltr align=left><SPAN class=EC_EC_811165316-02022009><FONT face=Arial 
  color=#0000ff>Are you really trying to use the wireless network? Looks like 
  that's what is getting used.</FONT></SPAN></DIV>
  <DIV dir=ltr align=left><SPAN class=EC_EC_811165316-02022009><FONT face=Arial 
  color=#0000ff></FONT></SPAN>&nbsp;</DIV>
  <DIV dir=ltr align=left><SPAN class=EC_EC_811165316-02022009><FONT face=Arial 
  color=#0000ff>You can use the mpdcheck utility to diagnose 
  network&nbsp;configuration&nbsp;problems. See Appendix A.2 of the installation 
  guide.</FONT></SPAN></DIV>
  <DIV dir=ltr align=left><SPAN class=EC_EC_811165316-02022009><FONT face=Arial 
  color=#0000ff></FONT></SPAN>&nbsp;</DIV>
  <DIV dir=ltr align=left><SPAN class=EC_EC_811165316-02022009><FONT face=Arial 
  color=#0000ff>Rajeev</FONT></SPAN></DIV><BR>
  <BLOCKQUOTE style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; MARGIN-RIGHT: 0px">
    <DIV class=EC_EC_OutlookMessageHeader lang=en-us dir=ltr align=left>
    <HR>
    <FONT face=Tahoma><B>From:</B> mpich-discuss-bounces@mcs.anl.gov 
    [mailto:mpich-discuss-bounces@mcs.anl.gov] <B>On Behalf Of </B>Antonio José 
    Gallardo Díaz<BR><B>Sent:</B> Monday, February 02, 2009 9:49 
    AM<BR><B>To:</B> mpich-discuss@mcs.anl.gov<BR><B>Subject:</B> 
    [mpich-discuss] Fatal error in MPI_Barrier<BR></FONT><BR></DIV>
    <DIV></DIV>Hello, this error show me when i try my jobs that use 
    MPI.<BR><BR><BR>Fatal error in MPI_Barrier: Other MPI error, error 
    stack:<BR>MPI_Barrier(406).............................: 
    MPI_Barrier(MPI_COMM_WORLD) 
    failed<BR>MPIR_Barrier(77).............................:<BR>MPIC_Sendrecv(123)...........................:<BR>MPIC_Wait(270)...............................:<BR>MPIDI_CH3i_Progress_wait(215)................: 
    an error occurred while handling an event returned by 
    MPIDU_Sock_Wait()<BR>MPIDI_CH3I_Progress_handle_sock_event(640)...:<BR>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
    unable to find the process group structure with id &lt;��oz�&gt;[cli_1]: 
    aborting job:<BR>Fatal error in MPI_Barrier: Other MPI error, error 
    stack:<BR>MPI_Barrier(406).............................: 
    MPI_Barrier(MPI_COMM_WORLD) 
    failed<BR>MPIR_Barrier(77).............................:<BR>MPIC_Sendrecv(123)...........................:<BR>MPIC_Wait(270)...............................:<BR>MPIDI_CH3i_Progress_wait(215)................: 
    an error occurred while handling an event returned by 
    MPIDU_Sock_Wait()<BR>MPIDI_CH3I_Progress_handle_sock_event(640)...:<BR>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
    unable to find the process group structure with id &lt;��oz�&gt;<BR>rank 1 
    in job 15&nbsp; wireless_43226&nbsp;&nbsp; caused collective abort of all 
    ranks<BR>&nbsp; exit status of rank 1: killed by signal 9<BR><BR>I have two 
    PC's with linux (kubuntu 8.10). I make a cluster using this machines. When 
    use for example the command "mpiexec -l -n 2 hostname" i can see that it's 
    all right, but when i try to send o receive some thing i have the same 
    error. I don't know why. Please i need one hand. Thanks for all. <BR><BR>
    <HR>
    El doble de diversión: <A 
    href="http://www.microsoft.com/windows/windowslive/messenger.aspx">Con 
    Windows Live Messenger comparte fotos mientras hablas.</A> </BLOCKQUOTE><BR>
  <HR>
  Con el nuevo Windows Live lo tendrás <A href="http://home.live.com/">todo al 
  alcance de tu mano</A><BR>
  <HR>
  Con el nuevo Windows Live lo tendrás <A href="http://home.live.com/" 
  target=_new>todo al alcance de tu mano</A> </BLOCKQUOTE></BODY></HTML>