<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">

<head>
<meta http-equiv=Content-Type content="text/html; charset=us-ascii">
<meta name=Generator content="Microsoft Word 12 (filtered medium)">
<style>
<!--
 /* Font Definitions */
 @font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Consolas;
        panose-1:2 11 6 9 2 2 4 3 2 4;}
 /* Style Definitions */
 p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p.MsoPlainText, li.MsoPlainText, div.MsoPlainText
        {mso-style-priority:99;
        mso-style-link:"Plain Text Char";
        margin:0in;
        margin-bottom:.0001pt;
        font-size:10.5pt;
        font-family:Consolas;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Arial","sans-serif";
        color:windowtext;}
span.PlainTextChar
        {mso-style-name:"Plain Text Char";
        mso-style-priority:99;
        mso-style-link:"Plain Text";
        font-family:Consolas;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page Section1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.Section1
        {page:Section1;}
-->
</style>
<!--[if gte mso 9]><xml>
 <o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
 <o:shapelayout v:ext="edit">
  <o:idmap v:ext="edit" data="1" />
 </o:shapelayout></xml><![endif]-->
</head>

<body lang=EN-US link=blue vlink=purple>

<div class=Section1>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'>I have been
using mpd as the process manager. I would like to change to hydra since mpd is
being deprecated. I compiled MPICH2-1.3.1 and was able to run the cpi example
program. I then attempted to run another program and receive the following
error (ran in verbose mode for more info). I am able to run the same program
using mpd.<o:p></o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'><o:p>&nbsp;</o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'>To my
knowledge no one in the community that uses this program (Fire Dynamics
Simulator, open source CFD tailored to fire, produced by community lead by the National
Institute of Standards and Technology) has attempted to use hydra. They are
still running on mpd.<o:p></o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'><o:p>&nbsp;</o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'>Thanks,<o:p></o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'><o:p>&nbsp;</o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'>Paul<o:p></o:p></span></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'><o:p>&nbsp;</o:p></span></p>

<p class=MsoPlainText><span style='font-family:"Courier New"'>==================================================================================================<br>
mpiexec options:<br>
----------------<br>
&nbsp; Base path: /home/Paul/mpich2-1.3.1-install/bin/<br>
&nbsp; Bootstrap server: (null)<br>
&nbsp; Debug level: 1<br>
&nbsp; Enable X: -1<br>
<br>
&nbsp; Global environment:<br>
&nbsp; -------------------<br>
&nbsp;&nbsp;&nbsp; ORBIT_SOCKETDIR=/tmp/orbit-Paul<br>
&nbsp;&nbsp;&nbsp; SSH_AGENT_PID=1885<br>
&nbsp;&nbsp;&nbsp; HOSTNAME=T5400-2<br>
&nbsp;&nbsp;&nbsp; IMSETTINGS_INTEGRATE_DESKTOP=yes<br>
&nbsp;&nbsp;&nbsp; SHELL=/bin/bash<br>
&nbsp;&nbsp;&nbsp; TERM=xterm<br>
&nbsp;&nbsp;&nbsp; HISTSIZE=1000<br>
&nbsp;&nbsp;&nbsp;
XDG_SESSION_COOKIE=a5ad468bf429b1016713ff6a4c1a7fbe-1295906950.782328-554747930<br>
&nbsp;&nbsp;&nbsp; GTK_RC_FILES=/etc/gtk/gtkrc:/home/Paul/.gtkrc-1.2-gnome2<br>
&nbsp;&nbsp;&nbsp; WINDOWID=67108867<br>
&nbsp;&nbsp;&nbsp; QTDIR=/usr/lib64/qt-3.3<br>
&nbsp;&nbsp;&nbsp; QTINC=/usr/lib64/qt-3.3/include<br>
&nbsp;&nbsp;&nbsp; IMSETTINGS_MODULE=none<br>
&nbsp;&nbsp;&nbsp; USER=Paul<br>
&nbsp;&nbsp;&nbsp; LS_COLORS=rs<br>
&nbsp;&nbsp;&nbsp; LD_LIBRARY_PATH=/opt/intel/Compiler/11.1/072/lib/intel64:<br>
&nbsp;&nbsp;&nbsp; SSH_AUTH_SOCK=/tmp/keyring-pXiYSA/socket.ssh<br>
&nbsp;&nbsp;&nbsp; GNOME_KEYRING_SOCKET=/tmp/keyring-pXiYSA/socket<br>
&nbsp;&nbsp;&nbsp;
SESSION_MANAGER=local/unix:@/tmp/.ICE-unix/1884,unix/unix:/tmp/.ICE-unix/1884<br>
&nbsp;&nbsp;&nbsp;
PATH=/home/Paul/mpich2-1.3.1-install/bin:/usr/lib64/qt-3.3/bin:/usr/kerberos/sbin:/usr/kerberos/bin:/usr/lib64/ccache:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/Paul/bin<br>
&nbsp;&nbsp;&nbsp; MAIL=/var/spool/mail/Paul<br>
&nbsp;&nbsp;&nbsp; QT_IM_MODULE=xim<br>
&nbsp;&nbsp;&nbsp; PWD=/FDS/FDS5_TestCases/Hallway<br>
&nbsp;&nbsp;&nbsp; XMODIFIERS=@im<br>
&nbsp;&nbsp;&nbsp; KDE_IS_PRELINKED=1<br>
&nbsp;&nbsp;&nbsp; LANG=en_US.UTF-8<br>
&nbsp;&nbsp;&nbsp; KDEDIRS=/usr<br>
&nbsp;&nbsp;&nbsp; HISTCONTROL=ignoreboth<br>
&nbsp;&nbsp;&nbsp; SSH_ASKPASS=/usr/libexec/openssh/gnome-ssh-askpass<br>
&nbsp;&nbsp;&nbsp; SHLVL=4<br>
&nbsp;&nbsp;&nbsp; HOME=/home/Paul<br>
&nbsp;&nbsp;&nbsp; KMIX_PULSEAUDIO_DISABLE=1<br>
&nbsp;&nbsp;&nbsp; GNOME_DESKTOP_SESSION_ID=this-is-deprecated<br>
&nbsp;&nbsp;&nbsp; LOGNAME=Paul<br>
&nbsp;&nbsp;&nbsp; CVS_RSH=ssh<br>
&nbsp;&nbsp;&nbsp; QTLIB=/usr/lib64/qt-3.3/lib<br>
&nbsp;&nbsp;&nbsp; DBUS_SESSION_BUS_ADDRESS=unix:abstract<br>
&nbsp;&nbsp;&nbsp; LESSOPEN=|/usr/bin/lesspipe.sh %s<br>
&nbsp;&nbsp;&nbsp; WINDOWPATH=7<br>
&nbsp;&nbsp;&nbsp; GTK_IM_MODULE=xim<br>
&nbsp;&nbsp;&nbsp; G_BROKEN_FILENAMES=1<br>
&nbsp;&nbsp;&nbsp; COLORTERM=gnome-terminal<br>
&nbsp;&nbsp;&nbsp; XAUTHORITY=/home/Paul/.Xauthority<br>
&nbsp;&nbsp;&nbsp; _=/home/Paul/mpich2-1.3.1-install/bin/mpiexec<br>
<br>
<br>
&nbsp;&nbsp;&nbsp; Proxy information:<br>
&nbsp;&nbsp;&nbsp; *********************<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Proxy ID:&nbsp; 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -----------------<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Proxy name: localhost<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Process count: 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Start PID: 0<br>
<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Proxy exec list:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ....................<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Exec:
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra; Process count: 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Exec:
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra; Process count: 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Exec:
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra; Process count: 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Exec:
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra; Process count: 1<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Exec:
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra; Process count: 1<br>
<br>
==================================================================================================<br>
<br>
[mpiexec@T5400-2] Timeout set to -1 (-1 means infinite)<br>
[mpiexec@T5400-2] Got a control port string of T5400-2:52405<br>
<br>
Proxy launch args: /home/Paul/mpich2-1.3.1-install/bin/hydra_pmi_proxy
--control-port T5400-2:52405 --debug --demux poll --pgid 0 --enable-stdin 1
--proxy-id <br>
<br>
[mpiexec@T5400-2] PMI FD: (null); PMI PORT: (null); PMI ID/RANK: -1<br>
Arguments being passed to proxy 0:<br>
--version 1.3.1 --interface-env-name MPICH_INTERFACE_HOSTNAME --hostname
localhost --global-core-count 1 --global-process-count 5 --auto-cleanup 1
--pmi-rank -1 --pmi-kvsname kvs_4399_0 --pmi-process-mapping (vector,(0,1,1))
--ckpoint-num -1 --global-inherited-env 44 'ORBIT_SOCKETDIR=/tmp/orbit-Paul'
'SSH_AGENT_PID=1885' 'HOSTNAME=T5400-2' 'IMSETTINGS_INTEGRATE_DESKTOP=yes'
'SHELL=/bin/bash' 'TERM=xterm' 'HISTSIZE=1000'
'XDG_SESSION_COOKIE=a5ad468bf429b1016713ff6a4c1a7fbe-1295906950.782328-554747930'
'GTK_RC_FILES=/etc/gtk/gtkrc:/home/Paul/.gtkrc-1.2-gnome2' 'WINDOWID=67108867'
'QTDIR=/usr/lib64/qt-3.3' 'QTINC=/usr/lib64/qt-3.3/include' 'IMSETTINGS_MODULE=none'
'USER=Paul' 'LS_COLORS=rs'
'LD_LIBRARY_PATH=/opt/intel/Compiler/11.1/072/lib/intel64:'
'SSH_AUTH_SOCK=/tmp/keyring-pXiYSA/socket.ssh'
'GNOME_KEYRING_SOCKET=/tmp/keyring-pXiYSA/socket'
'SESSION_MANAGER=local/unix:@/tmp/.ICE-unix/1884,unix/unix:/tmp/.ICE-unix/1884'
'PATH=/home/Paul/mpich2-1.3.1-install/bin:/usr/lib64/qt-3.3/bin:/usr/kerberos/sbin:/usr/kerberos/bin:/usr/lib64/ccache:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/Paul/bin'
'MAIL=/var/spool/mail/Paul' 'QT_IM_MODULE=xim'
'PWD=/FDS/FDS5_TestCases/Hallway' 'XMODIFIERS=@im' 'KDE_IS_PRELINKED=1'
'LANG=en_US.UTF-8' 'KDEDIRS=/usr' 'HISTCONTROL=ignoreboth'
'SSH_ASKPASS=/usr/libexec/openssh/gnome-ssh-askpass' 'SHLVL=4'
'HOME=/home/Paul' 'KMIX_PULSEAUDIO_DISABLE=1' 'GNOME_DESKTOP_SESSION_ID=this-is-deprecated'
'LOGNAME=Paul' 'CVS_RSH=ssh' 'QTLIB=/usr/lib64/qt-3.3/lib'
'DBUS_SESSION_BUS_ADDRESS=unix:abstract' 'LESSOPEN=|/usr/bin/lesspipe.sh %s'
'WINDOWPATH=7' 'GTK_IM_MODULE=xim' 'G_BROKEN_FILENAMES=1'
'COLORTERM=gnome-terminal' 'XAUTHORITY=/home/Paul/.Xauthority'
'_=/home/Paul/mpich2-1.3.1-install/bin/mpiexec' --global-user-env 0
--global-system-env 0 --start-pid 0 --proxy-core-count 1 --exec --exec-appnum 0
--exec-proc-count 1 --exec-local-env 0 --exec-wdir /FDS/FDS5_TestCases/Hallway
--exec-args 2 /FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra
/FDS/FDS5_TestCases/Hallway/hallways.fds --exec --exec-appnum 0
--exec-proc-count 1 --exec-local-env 0 --exec-wdir /FDS/FDS5_TestCases/Hallway
--exec-args 2 /FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra
/FDS/FDS5_TestCases/Hallway/hallways.fds --exec --exec-appnum 0
--exec-proc-count 1 --exec-local-env 0 --exec-wdir /FDS/FDS5_TestCases/Hallway
--exec-args 2 /FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra /FDS/FDS5_TestCases/Hallway/hallways.fds
--exec --exec-appnum 0 --exec-proc-count 1 --exec-local-env 0 --exec-wdir
/FDS/FDS5_TestCases/Hallway --exec-args 2
/FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra
/FDS/FDS5_TestCases/Hallway/hallways.fds --exec --exec-appnum 0
--exec-proc-count 1 --exec-local-env 0 --exec-wdir /FDS/FDS5_TestCases/Hallway
--exec-args 2 /FDS/FDS5_TestCases/Hallway/fds5_mpi_intel_linux_64_hydra
/FDS/FDS5_TestCases/Hallway/hallways.fds <br>
<br>
[mpiexec@T5400-2] Launch arguments: /home/Paul/mpich2-1.3.1-install/bin/hydra_pmi_proxy
--control-port T5400-2:52405 --debug --demux poll --pgid 0 --enable-stdin 1
--proxy-id 0 <br>
[proxy:0:0@T5400-2] got pmi command (from 17): init<br>
pmi_version=1 pmi_subversion=1 <br>
[proxy:0:0@T5400-2] PMI response: cmd=response_to_init pmi_version=1
pmi_subversion=1 rc=0<br>
[proxy:0:0@T5400-2] got pmi command (from 6): init<br>
pmi_version=1 pmi_subversion=1 <br>
[proxy:0:0@T5400-2] PMI response: cmd=response_to_init pmi_version=1
pmi_subversion=1 rc=0<br>
[proxy:0:0@T5400-2] got pmi command (from 10): init<br>
pmi_version=1 pmi_subversion=1 <br>
[proxy:0:0@T5400-2] PMI response: cmd=response_to_init pmi_version=1
pmi_subversion=1 rc=0<br>
[proxy:0:0@T5400-2] got pmi command (from 20): init<br>
pmi_version=1 pmi_subversion=1 <br>
[proxy:0:0@T5400-2] PMI response: cmd=response_to_init pmi_version=1
pmi_subversion=1 rc=0<br>
[proxy:0:0@T5400-2] got pmi command (from 6): get_maxes<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=maxes kvsname_max=256 keylen_max=64
vallen_max=1024<br>
[proxy:0:0@T5400-2] got pmi command (from 9): init<br>
pmi_version=1 pmi_subversion=1 <br>
[proxy:0:0@T5400-2] PMI response: cmd=response_to_init pmi_version=1
pmi_subversion=1 rc=0<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get_maxes<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=maxes kvsname_max=256 keylen_max=64
vallen_max=1024<br>
[proxy:0:0@T5400-2] got pmi command (from 6): get_appnum<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=appnum appnum=0<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get_maxes<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=maxes kvsname_max=256 keylen_max=64
vallen_max=1024<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get_maxes<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=maxes kvsname_max=256 keylen_max=64
vallen_max=1024<br>
[proxy:0:0@T5400-2] got pmi command (from 6): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get_appnum<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=appnum appnum=0<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get_appnum<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=appnum appnum=0<br>
[proxy:0:0@T5400-2] got pmi command (from 6): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get_appnum<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=appnum appnum=0<br>
[proxy:0:0@T5400-2] got pmi command (from 6): get<br>
kvsname=kvs_4399_0 key=PMI_process_mapping <br>
[proxy:0:0@T5400-2] PMI response: cmd=get_result rc=0 msg=success
value=(vector,(0,1,1))<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get_maxes<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=maxes kvsname_max=256 keylen_max=64
vallen_max=1024<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get_appnum<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=appnum appnum=0<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get<br>
kvsname=kvs_4399_0 key=PMI_process_mapping <br>
[proxy:0:0@T5400-2] PMI response: cmd=get_result rc=0 msg=success
value=(vector,(0,1,1))<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get<br>
kvsname=kvs_4399_0 key=PMI_process_mapping <br>
[proxy:0:0@T5400-2] PMI response: cmd=get_result rc=0 msg=success
value=(vector,(0,1,1))<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 9): barrier_in<br>
<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get<br>
kvsname=kvs_4399_0 key=PMI_process_mapping <br>
[proxy:0:0@T5400-2] PMI response: cmd=get_result rc=0 msg=success
value=(vector,(0,1,1))<br>
[proxy:0:0@T5400-2] got pmi command (from 10): barrier_in<br>
<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get_my_kvsname<br>
<br>
[proxy:0:0@T5400-2] PMI response: cmd=my_kvsname kvsname=kvs_4399_0<br>
[proxy:0:0@T5400-2] got pmi command (from 6): put<br>
kvsname=kvs_4399_0 key=sharedFilename[0] value=/dev/shm/mpich_shar_tmpj4s40m <br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=sharedFilename[0] value=/dev/shm/mpich_shar_tmpj4s40m<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 6: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get<br>
kvsname=kvs_4399_0 key=PMI_process_mapping <br>
[proxy:0:0@T5400-2] PMI response: cmd=get_result rc=0 msg=success
value=(vector,(0,1,1))<br>
[proxy:0:0@T5400-2] got pmi command (from 20): barrier_in<br>
<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 17): barrier_in<br>
<br>
[proxy:0:0@T5400-2] got pmi command (from 6): barrier_in<br>
<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=barrier_in<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 6: cmd=barrier_out<br>
[proxy:0:0@T5400-2] forwarding command (cmd=barrier_in) upstream<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] got pmi command (from 10): get<br>
kvsname=kvs_4399_0 key=sharedFilename[0] <br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 10: cmd=get_result rc=0 msg=success
value=/dev/shm/mpich_shar_tmpj4s40m<br>
[proxy:0:0@T5400-2] forwarding command (cmd=get kvsname=kvs_4399_0 key=sharedFilename[0])
upstream<br>
[proxy:0:0@T5400-2] got pmi command (from 20): get<br>
kvsname=kvs_4399_0 key=sharedFilename[0] <br>
[proxy:0:0@T5400-2] forwarding command (cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]) upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 20: cmd=get_result rc=0 msg=success
value=/dev/shm/mpich_shar_tmpj4s40m<br>
[proxy:0:0@T5400-2] we don't understand the response get_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] we don't understand the response get_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 9): get<br>
kvsname=kvs_4399_0 key=sharedFilename[0] <br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=get kvsname=kvs_4399_0 key=sharedFilename[0]<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 9: cmd=get_result rc=0 msg=success
value=/dev/shm/mpich_shar_tmpj4s40m<br>
[proxy:0:0@T5400-2] forwarding command (cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]) upstream<br>
[proxy:0:0@T5400-2] got pmi command (from 17): get<br>
kvsname=kvs_4399_0 key=sharedFilename[0] <br>
[proxy:0:0@T5400-2] forwarding command (cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]) upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=get kvsname=kvs_4399_0
key=sharedFilename[0]<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 17: cmd=get_result rc=0 msg=success
value=/dev/shm/mpich_shar_tmpj4s40m<br>
[proxy:0:0@T5400-2] we don't understand the response get_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] we don't understand the response get_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 6): put<br>
kvsname=kvs_4399_0 key=P0-businesscard
value=description#localhost$port#34688$ifname#127.0.0.1$ <br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=P0-businesscard value=description#localhost$port#34688$ifname#127.0.0.1$<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 6: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] got pmi command (from 9): put<br>
kvsname=kvs_4399_0 key=P1-businesscard
value=description#localhost$port#59785$ifname#127.0.0.1$ <br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[proxy:0:0@T5400-2] got pmi command (from 10): put<br>
kvsname=kvs_4399_0 key=P2-businesscard
value=description#localhost$port#41396$ifname#127.0.0.1$ <br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=P1-businesscard value=description#localhost$port#59785$ifname#127.0.0.1$<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 9: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] got pmi command (from 17): put<br>
kvsname=kvs_4399_0 key=P3-businesscard value=description#localhost$port#58059$ifname#127.0.0.1$
<br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[proxy:0:0@T5400-2] got pmi command (from 20): put<br>
kvsname=kvs_4399_0 key=P4-businesscard
value=description#localhost$port#50928$ifname#127.0.0.1$ <br>
[proxy:0:0@T5400-2] we don't understand this command put; forwarding upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=P2-businesscard value=description#localhost$port#41396$ifname#127.0.0.1$<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 10: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 9): barrier_in<br>
<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=P3-businesscard value=description#localhost$port#58059$ifname#127.0.0.1$<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 17: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 6): barrier_in<br>
<br>
[proxy:0:0@T5400-2] got pmi command (from 10): barrier_in<br>
<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=put kvsname=kvs_4399_0
key=P4-businesscard value=description#localhost$port#50928$ifname#127.0.0.1$<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 20: cmd=put_result rc=0 msg=success<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding downstream<br>
[proxy:0:0@T5400-2] we don't understand the response put_result; forwarding
downstream<br>
[proxy:0:0@T5400-2] got pmi command (from 17): barrier_in<br>
<br>
[proxy:0:0@T5400-2] got pmi command (from 20): barrier_in<br>
<br>
[proxy:0:0@T5400-2] forwarding command (cmd=barrier_in) upstream<br>
[mpiexec@T5400-2] [pgid: 0] got PMI command: cmd=barrier_in<br>
[mpiexec@T5400-2] PMI response to fd 6 pid 20: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
[proxy:0:0@T5400-2] PMI response: cmd=barrier_out<br>
Process&nbsp;&nbsp; 2 of&nbsp;&nbsp; 4 is running on T5400-2<br>
Process&nbsp;&nbsp; 1 of&nbsp;&nbsp; 4 is running on T5400-2<br>
Process&nbsp;&nbsp; 3 of&nbsp;&nbsp; 4 is running on T5400-2<br>
Process&nbsp;&nbsp; 4 of&nbsp;&nbsp; 4 is running on T5400-2<br>
Process&nbsp;&nbsp; 0 of&nbsp;&nbsp; 4 is running on T5400-2<br>
Mesh&nbsp;&nbsp; 1 is assigned to Process&nbsp;&nbsp; 0<br>
Mesh&nbsp;&nbsp; 2 is assigned to Process&nbsp;&nbsp; 1<br>
Mesh&nbsp;&nbsp; 3 is assigned to Process&nbsp;&nbsp; 2<br>
Mesh&nbsp;&nbsp; 4 is assigned to Process&nbsp;&nbsp; 3<br>
Mesh&nbsp;&nbsp; 5 is assigned to Process&nbsp;&nbsp; 4<br>
<br>
&nbsp;Fire Dynamics Simulator<br>
<br>
&nbsp;Compilation Date : Fri, 29 Oct 2010<br>
<br>
&nbsp;Version: 5.5.3; MPI Enabled; OpenMP Disabled<br>
&nbsp;SVN Revision No. : 7031<br>
<br>
&nbsp;Job TITLE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : Silly Multi-Mesh
Test, SVN $Revision: 6486 $<br>
&nbsp;Job ID string&nbsp;&nbsp;&nbsp; : hallways<br>
<br>
Fatal error in PMPI_Gatherv: Internal MPI error!, error stack:<br>
PMPI_Gatherv(376).....: MPI_Gatherv failed(sbuf=0x27a6c40, scount=1,
MPI_DOUBLE_PRECISION, rbuf=0x27a6c40, rcnts=0x25b9670, displs=0x25b96f0,
MPI_DOUBLE_PRECISION, root=0, MPI_COMM_WORLD) failed<br>
MPIR_Gatherv_impl(189): <br>
MPIR_Gatherv(102).....: <br>
MPIR_Localcopy(346)...: memcpy arguments alias each other, dst=0x27a6c40
src=0x27a6c40 len=8<br>
APPLICATION TERMINATED WITH THE EXIT STRING: Hangup (signal 1)</span><o:p></o:p></p>

<p class=MsoNormal><span style='font-family:"Arial","sans-serif"'><o:p>&nbsp;</o:p></span></p>

</div>

</body>

</html>