<html>
<head>
<style>
.hmmessage P
{
margin:0px;
padding:0px
}
body.hmmessage
{
font-size: 10pt;
font-family:Verdana
}
</style>
</head>
<body class='hmmessage'>
In first place thanks for your help.<br><br>I have in the archive:<br><br>&nbsp;/etc/mpd.conf: <br>/*************************************************************************************/<br>#! /bin/sh<br>#<br># This file contains configuration information for mpicc.&nbsp; This is<br># essentially just the variable-initialization part of mpicc.<br># --------------------------------------------------------------------------<br># Set the default values of all variables.<br>#<br># Directory locations: Fixed for any MPI implementation.<br># Set from the directory arguments to configure (e.g., --prefix=/usr/local)<br>prefix=/usr/local<br>exec_prefix=${prefix}<br>sysconfdir=${prefix}/etc<br>includedir=${prefix}/include<br>libdir=${exec_prefix}/lib<br>#<br># Default settings for compiler, flags, and libraries.<br># Determined by a combination of environment variables and tests within<br># configure (e.g., determining whehter -lsocket is needee)<br>CC="gcc"<br>WRAPPER_CFLAGS=""<br>WRAPPER_LDFLAGS="&nbsp; "<br>MPILIBNAME="mpich"<br>PMPILIBNAME="pmpich"<br>MPI_OTHERLIBS="-lpthread&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -lrt&nbsp;&nbsp; "<br>NEEDSPLIB="no"<br># MPIVERSION is the version of the MPICH2 library that mpicc is intended for<br>MPIVERSION="1.0.8"<br>/*************************************************************************************/<br><br><br>archive /etc/mpd.hosts:<br>/*************************************************************************************/<br>master ifhn=192.168.1.1<br>slave ifhn=192.168.1.2<br><br>/*************************************************************************************/<br><br><br><br>archive .mpd.conf:<br>
/*************************************************************************************/<br>
MPD_SECRETWORD=hola<br><br>/*************************************************************************************/<br><br><br><br>archive .mpd.hosts:<br>

/*************************************************************************************/<br>master ifhn=192.168.1.1<br>slave ifhn=192.168.1.2<br><br>/*************************************************************************************/<br><br><br>I use the next command for wake up the cluster:<br><br>mpdboot --totalnum=2 --ifhn=192.168.1.1 -f .mpd.hosts<br><br><br>and when i try my job use:<br><br>mpiexec -recvtimeout 30 -n 2 ./Proyecto/debug/src/proyecto2<br><br><br><br><br>Need you anymore? Thanks.<br><br><hr id="stopSpelling">From: thakur@mcs.anl.gov<br>To: mpich-discuss@mcs.anl.gov<br>Date: Mon, 2 Feb 2009 17:30:36 -0600<br>Subject: Re: [mpich-discuss] Fatal error in MPI_Barrier<br><br>




<style>
.ExternalClass .EC_hmmessage P
{padding-right:0px;padding-left:0px;padding-bottom:0px;padding-top:0px;}
.ExternalClass BODY.EC_hmmessage
{font-size:10pt;font-family:Verdana;}
</style>



<div dir="ltr" align="left"><span class="EC_854033023-02022009"><font color="#0000ff" face="Arial">What parameters did you pass to "configure" when you built 
MPICH2?</font></span></div><br>
<blockquote style="border-left: 2px solid rgb(0, 0, 255); padding-left: 5px; margin-left: 5px; margin-right: 0px;">
  <div class="EC_OutlookMessageHeader" dir="ltr" align="left" lang="en-us">
  <hr>
  <font face="Tahoma"><b>From:</b> mpich-discuss-bounces@mcs.anl.gov 
  [mailto:mpich-discuss-bounces@mcs.anl.gov] <b>On Behalf Of </b>Antonio José 
  Gallardo Díaz<br><b>Sent:</b> Monday, February 02, 2009 5:29 PM<br><b>To:</b> 
  mpich-discuss@mcs.anl.gov<br><b>Subject:</b> Re: [mpich-discuss] Fatal error 
  in MPI_Barrier<br></font><br></div>
  <div></div>Only have two nodes.<br>&nbsp;<br>Node 1--&gt; name: master --&gt; 
  hostname: wireless<br>Node 2--&gt; name: slave----&gt; hostname: 
  wireless2<br>&nbsp;<br>For&nbsp;wake up the cluster i use the command 
  "mpdboot".<br>&nbsp;<br>For example, i can to see how is the&nbsp;two node's 
  id. In my job, i use for example MPI_rank(...) and i receive the number of the 
  nodes, however if i use a MPI_Send(...) or MPI_Receive(...), mi job exit of 
  the application and show me a error.<br>If i use "mpiexec -l -n 2 hostname", i 
  receive:<br>0 : wireless<br>1: wireless 2<br>&nbsp;<br>I don't know that it is 
  the answer for your question.<br>&nbsp;<br>Thanks.<br><br><br>
  <hr id="EC_stopSpelling">
  <br>From: thakur@mcs.anl.gov<br>To: mpich-discuss@mcs.anl.gov<br>Date: Mon, 2 
  Feb 2009 15:52:52 -0600<br>Subject: Re: [mpich-discuss] Fatal error in 
  MPI_Barrier<br><br><br>
  <style>
.ExternalClass .EC_hmmessage P
{padding-right:0px;padding-left:0px;padding-bottom:0px;padding-top:0px;}
.ExternalClass BODY.EC_hmmessage
{font-size:10pt;font-family:Verdana;}
</style>

  <div dir="ltr" align="left"><span class="EC_EC_388285121-02022009"><font color="#0000ff" face="Arial">The error message "<font color="#000000">unable to find the 
  process group structure with id &lt;&gt;"&nbsp;is odd. How exactly did you 
  configure MPICH2? Were you able to set up an MPD ring on the two nodes 
  successfully?</font></font></span></div>
  <div dir="ltr" align="left"><span class="EC_EC_388285121-02022009"><font face="Arial"></font></span>&nbsp;</div>
  <div dir="ltr" align="left"><span class="EC_EC_388285121-02022009"><font face="Arial">Rajeev</font></span></div><br>
  <blockquote style="border-left: 2px solid rgb(0, 0, 255); padding-left: 5px; margin-left: 5px; margin-right: 0px;">
    <div class="EC_EC_OutlookMessageHeader" dir="ltr" align="left" lang="en-us">
    <hr>
    <font face="Tahoma"><b>From:</b> mpich-discuss-bounces@mcs.anl.gov 
    [mailto:mpich-discuss-bounces@mcs.anl.gov] <b>On Behalf Of </b>Antonio José 
    Gallardo Díaz<br><b>Sent:</b> Monday, February 02, 2009 12:39 
    PM<br><b>To:</b> mpich-discuss@mcs.anl.gov<br><b>Subject:</b> Re: 
    [mpich-discuss] Fatal error in MPI_Barrier<br></font><br></div>
    <div></div>Hello. I Have tested to use the command:<br><br>mpiexec 
    -recvtimeout 30 -n 2 /home/mpi/mpich2-1.0.8/examples/cpi&nbsp;&nbsp; 
    <br><br>and this is the 
    result.<br><br>/********************************************************************************************************************************************************/ 
    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>Process 0 of 2 is on 
    wireless&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>Process 1 of 2 is on 
    wireless2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>Fatal error in MPI_Bcast: Other MPI error, error 
    stack:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPI_Bcast(786)............................: 
    MPI_Bcast(buf=0x7ffff732586c, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
    failed&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPIR_Bcast(230)...........................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPIC_Send(39).............................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPIC_Wait(270)............................:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPIDI_CH3i_Progress_wait(215).............: an error occurred while 
    handling an event returned by 
    MPIDU_Sock_Wait()&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    <br>MPIDI_CH3I_Progress_handle_sock_event(420):<br>MPIDU_Socki_handle_read(637)..............: 
    connection failure (set=0,sock=1,errno=104:Connection reset by peer)[cli_0]: 
    aborting job:<br>Fatal error in MPI_Bcast: Other MPI error, error 
    stack:<br>MPI_Bcast(786)............................: 
    MPI_Bcast(buf=0x7ffff732586c, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
    failed<br>MPIR_Bcast(230)...........................:<br>MPIC_Send(39).............................:<br>MPIC_Wait(270)............................:<br>MPIDI_CH3i_Progress_wait(215).............: 
    an error occurred while handling an event returned by MPFatal error in 
    MPI_Bcast: Other MPI error, error 
    stack:<br>MPI_Bcast(786)...............................: 
    MPI_Bcast(buf=0xbf82bec8, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
    failed<br>MPIR_Bcast(198)..............................:<br>MPIC_Recv(81)................................:<br>MPIC_Wait(270)...............................:<br>MPIDI_CH3i_Progress_wait(215)................: 
    an error occurred while handling an event returned by 
    MPIDU_Sock_Wait()<br>MPIDI_CH3I_Progress_handle_sock_event(640)...:<br>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
    unable to find the process group structure with id &lt;&gt;[cli_1]: aborting 
    job:<br>Fatal error in MPI_Bcast: Other MPI error, error 
    stack:<br>MPI_Bcast(786)...............................: 
    MPI_Bcast(buf=0xbf82bec8, count=1, MPI_INT, root=0, MPI_COMM_WORLD) 
    failed<br>MPIR_Bcast(198)..............................:<br>MPIC_Recv(81)................................:<br>MPIC_Wait(270)...............................:<br>MPIDI_CH3i_Progress_wait(215)................: 
    an error occurred while handling an event 
    rIDU_Sock_Wait()<br>MPIDI_CH3I_Progress_handle_sock_event(420):<br>MPIDU_Socki_handle_read(637)..............: 
    connection failure (set=0,sock=1,errno=104:Connection reset by 
    peer)<br>eturned by 
    MPIDU_Sock_Wait()<br>MPIDI_CH3I_Progress_handle_sock_event(640)...:<br>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
    unable to find the process group structure with id &lt;&gt;<br>rank 1 in job 
    21&nbsp; wireless_47695&nbsp;&nbsp; caused collective abort of all 
    ranks<br>&nbsp; exit status of rank 1: return code 1<br>rank 0 in job 
    21&nbsp; wireless_47695&nbsp;&nbsp; caused collective abort of all 
    ranks<br>&nbsp; exit status of rank 0: return code 
    1<br><br>/********************************************************************************************************************************************************/<br><br>The 
    mpdcheck said that has a problem with the first ip but it's solved.<br>I 
    tested:<br><br>mpdcheck 
    -s&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 
    and in the other node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp; &nbsp; 
    &nbsp; mpdcheck -c "name" "number"&nbsp;&nbsp;&nbsp; 
    --------------&gt;&nbsp;&nbsp; Well.<br>mpiexec -n 1 /bin/hostname 
    -------------------------------------------------------------------------------------------------------------&gt;&nbsp;&nbsp; 
    Well.<br>mpiexec -l -n 4 /bin/hostname 
    ----------------------------------------------------------------------------------------------------------&gt;&nbsp;&nbsp; 
    Well.<br><br>I have to say that with all command i have to put the options 
    -recvtimeout 30 because but have problems. Without this option, say 
    me:<br><br>mpiexec_wireless (mpiexec 392): no msg recvd from mpd when 
    expecting ack of request<br><br><br>What can i do?? Please help and sorry 
    for my poor english.<br><br><br><br>
    <hr id="EC_EC_stopSpelling">
    From: ajcampa@hotmail.com<br>To: mpich-discuss@mcs.anl.gov<br>Date: Mon, 2 
    Feb 2009 18:17:39 +0100<br>Subject: Re: [mpich-discuss] Fatal error in 
    MPI_Barrier<br><br>
    <style>
.ExternalClass .EC_hmmessage P
{padding-right:0px;padding-left:0px;padding-bottom:0px;padding-top:0px;}
.ExternalClass BODY.EC_hmmessage
{font-size:10pt;font-family:Verdana;}
</style>
    Well, thanks for your answer.&nbsp; Really, the name of mi pc is "Wireless" 
    and the othes pc "Wireless2", i use in the two pc, the same user "mpi". 
    <br><br>I will try the mpdchech utility and then write 
    something.<br><br>Thank for all.<br><br>Un saludo desde España.<br><br>
    <hr id="EC_EC_EC_stopSpelling">
    From: thakur@mcs.anl.gov<br>To: mpich-discuss@mcs.anl.gov<br>Date: Mon, 2 
    Feb 2009 10:55:03 -0600<br>Subject: Re: [mpich-discuss] Fatal error in 
    MPI_Barrier<br><br>
    <style>
.ExternalClass .EC_hmmessage P
{padding-right:0px;padding-left:0px;padding-bottom:0px;padding-top:0px;}
.ExternalClass BODY.EC_hmmessage
{font-size:10pt;font-family:Verdana;}
</style>

    <div dir="ltr" align="left"><span class="EC_EC_EC_EC_811165316-02022009"><font color="#0000ff" face="Arial">Are you really trying to use the wireless network? 
    Looks like that's what is getting used.</font></span></div>
    <div dir="ltr" align="left"><span class="EC_EC_EC_EC_811165316-02022009"><font color="#0000ff" face="Arial"></font></span>&nbsp;</div>
    <div dir="ltr" align="left"><span class="EC_EC_EC_EC_811165316-02022009"><font color="#0000ff" face="Arial">You can use the mpdcheck utility to diagnose 
    network&nbsp;configuration&nbsp;problems. See Appendix A.2 of the 
    installation guide.</font></span></div>
    <div dir="ltr" align="left"><span class="EC_EC_EC_EC_811165316-02022009"><font color="#0000ff" face="Arial"></font></span>&nbsp;</div>
    <div dir="ltr" align="left"><span class="EC_EC_EC_EC_811165316-02022009"><font color="#0000ff" face="Arial">Rajeev</font></span></div><br>
    <blockquote style="padding-left: 5px; margin-left: 5px; margin-right: 0px;"><div class="EC_EC_EC_EC_OutlookMessageHeader" dir="ltr" align="left" lang="en-us">
      <hr>
      <font face="Tahoma"><b>From:</b> mpich-discuss-bounces@mcs.anl.gov 
      [mailto:mpich-discuss-bounces@mcs.anl.gov] <b>On Behalf Of </b>Antonio 
      José Gallardo Díaz<br><b>Sent:</b> Monday, February 02, 2009 9:49 
      AM<br><b>To:</b> mpich-discuss@mcs.anl.gov<br><b>Subject:</b> 
      [mpich-discuss] Fatal error in MPI_Barrier<br></font><br></div>
      <div></div>Hello, this error show me when i try my jobs that use 
      MPI.<br><br><br>Fatal error in MPI_Barrier: Other MPI error, error 
      stack:<br>MPI_Barrier(406).............................: 
      MPI_Barrier(MPI_COMM_WORLD) 
      failed<br>MPIR_Barrier(77).............................:<br>MPIC_Sendrecv(123)...........................:<br>MPIC_Wait(270)...............................:<br>MPIDI_CH3i_Progress_wait(215)................: 
      an error occurred while handling an event returned by 
      MPIDU_Sock_Wait()<br>MPIDI_CH3I_Progress_handle_sock_event(640)...:<br>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
      unable to find the process group structure with id &lt;��oz�&gt;[cli_1]: 
      aborting job:<br>Fatal error in MPI_Barrier: Other MPI error, error 
      stack:<br>MPI_Barrier(406).............................: 
      MPI_Barrier(MPI_COMM_WORLD) 
      failed<br>MPIR_Barrier(77).............................:<br>MPIC_Sendrecv(123)...........................:<br>MPIC_Wait(270)...............................:<br>MPIDI_CH3i_Progress_wait(215)................: 
      an error occurred while handling an event returned by 
      MPIDU_Sock_Wait()<br>MPIDI_CH3I_Progress_handle_sock_event(640)...:<br>MPIDI_CH3_Sockconn_handle_connopen_event(887): 
      unable to find the process group structure with id &lt;��oz�&gt;<br>rank 1 
      in job 15&nbsp; wireless_43226&nbsp;&nbsp; caused collective abort of all 
      ranks<br>&nbsp; exit status of rank 1: killed by signal 9<br><br>I have 
      two PC's with linux (kubuntu 8.10). I make a cluster using this machines. 
      When use for example the command "mpiexec -l -n 2 hostname" i can see that 
      it's all right, but when i try to send o receive some thing i have the 
      same error. I don't know why. Please i need one hand. Thanks for all. 
      <br><br>
      <hr>
      El doble de diversión: <a href="http://www.microsoft.com/windows/windowslive/messenger.aspx">Con 
      Windows Live Messenger comparte fotos mientras hablas.</a> </blockquote><br>
    <hr>
    Con el nuevo Windows Live lo tendrás <a href="http://home.live.com/">todo al 
    alcance de tu mano</a><br>
    <hr>
    Con el nuevo Windows Live lo tendrás <a href="http://home.live.com/">todo al 
    alcance de tu mano</a> </blockquote><br>
  <hr>
  Tienes un nuevo Messenger por descubrir. <a href="http://download.live.com/">¡Descárgatelo! </a></blockquote><br /><hr />Actualízate, descubre el nuevo Windows Live Messenger.  <a href='http://download.live.com/' target='_new'>¡Descárgatelo ya! </a></body>
</html>