Hi,<br><br>I am getting the same mpiexec 392 error message as Kenneth Yoshimoto from the San Diego Supercomputer Center. His mpich-discuss mailing list topic URL is <a href="http://lists.mcs.anl.gov/pipermail/mpich-discuss/2009-October/005882.html">http://lists.mcs.anl.gov/pipermail/mpich-discuss/2009-October/005882.html</a><br>
<br>I have actually already performed the 2-node mpdcheck utility test as described in Appendix A.1 of the MPICH2 installation guide. I could start the ring of mpd on the 2-node test scenario using mpdboot successfully as well.<br>
<br>薛正华 (ID: <span></span>zhxue123) from China reported solving the mpiexec 392 error. According to 薛正华, the cause of the mpiexec 392 error is the absence of high performance network in his environment. He had changed the default communication method from nemesis to ssm and also increased the value of MPIEXEC_RECV_TIMEOUT in the mpiexec.py python source code. The URL of his report is at <a href="http://blog.csdn.net/zhxue123/archive/2009/08/22/4473089.aspx">http://blog.csdn.net/zhxue123/archive/2009/08/22/4473089.aspx</a><br>
<br>Could this be my problem also?<br><br>Thank you.<br><br>-- <br>Mr. Teo En Ming (Zhang Enming) Dip(Mechatronics) BEng(Hons)(Mechanical Engineering)<br>Alma Maters:<br>(1) Singapore Polytechnic<br>(2) National University of Singapore<br>
My blog URL: <a href="http://teo-en-ming-aka-zhang-enming.blogspot.com">http://teo-en-ming-aka-zhang-enming.blogspot.com</a><br>My Youtube videos: <a href="http://www.youtube.com/user/enmingteo">http://www.youtube.com/user/enmingteo</a><br>
Email: <a href="mailto:space.time.universe@gmail.com">space.time.universe@gmail.com</a><br>MSN: <a href="mailto:teoenming@hotmail.com">teoenming@hotmail.com</a><br>Mobile Phone (SingTel): +65-9648-9798<br>Mobile Phone (Starhub Prepaid): +65-8369-2618<br>
Age: 31 (as at 30 Oct 2009)<br>Height: 1.78 meters<br>Race: Chinese<br>Dialect: Hokkien<br>Street: Bedok Reservoir Road<br>Country: Singapore<br><br><div class="gmail_quote">On Fri, Oct 30, 2009 at 11:09 AM, Rajeev Thakur <span dir="ltr">&lt;<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">



<div>
<div dir="ltr" align="left"><span><font face="Arial" size="2" color="#0000ff">You need to do the mpdcheck tests with every pair of compute 
nodes. Or to isolate the problem, try running on a smaller set of nodes first 
and increase it one at a time until it fails.</font></span></div>
<div dir="ltr" align="left"><span><font face="Arial" size="2" color="#0000ff"></font></span> </div>
<div dir="ltr" align="left"><span><font face="Arial" size="2" color="#0000ff">Rajeev</font></span></div>
<div dir="ltr" align="left"><span></span> </div><br>
<blockquote style="border-left: 2px solid rgb(0, 0, 255); padding-left: 5px; margin-left: 5px; margin-right: 0px;">
  <div dir="ltr" lang="en-us" align="left">
  <hr>
  <font face="Tahoma" size="2"><b>From:</b> <a href="mailto:mpich-discuss-bounces@mcs.anl.gov" target="_blank">mpich-discuss-bounces@mcs.anl.gov</a> 
  [mailto:<a href="mailto:mpich-discuss-bounces@mcs.anl.gov" target="_blank">mpich-discuss-bounces@mcs.anl.gov</a>] <b>On Behalf Of </b>Mr. Teo En Ming 
  (Zhang Enming)<br><b>Sent:</b> Thursday, October 29, 2009 2:35 
  PM<br><b>To:</b> <a href="mailto:mpich-discuss@mcs.anl.gov" target="_blank">mpich-discuss@mcs.anl.gov</a><br><b>Subject:</b> [mpich-discuss] 
  (mpiexec 392): no msg recvd from mpd when expectingack of 
  request<br></font><br></div><div><div></div><div class="h5">
  <div></div>Hi,<br><br>I have just installed MPICH2 in my Xen-based virtual 
  machines.<br><br>My hardware configuration is as follows:<br><br>Processor: 
  Intel Pentium Dual Core E6300 @ 2.8 GHz<br>Motherboard: Intel Desktop Board 
  DQ45CB BIOS 0093<br>Memory: 4X 2GB Kingston DDR2-800 CL5<br><br>My software 
  configuration is as follows:<br><br>Xen Hypervisor / Virtual Machine Monitor 
  Version: 3.5-unstable<br>Jeremy Fitzhardinge&#39;s pv-ops dom0 kernel: 
  2.6.31.4<br>Host Operating System: Fedora Linux 11 x86-64 (SELinux 
  disabled)<br>Guest Operating Systems: Fedora Linux 11 x86-64 paravirtualized 
  (PV) domU guests (SELinux disabled)<br><br>I have successfully configured, 
  built and installed MPICH2 in a F11 PV guest OS master compute node 1 with NFS 
  server (MPICH2 bin subdirectory exported). The rest of the 5 compute nodes 
  have access to the MPICH2 binaries by mounting NFS share from node 1. Please 
  see attached c.txt, m.txt and mi.txt. With Xen virtualization, I have created 
  6 F11 linux PV guests to simulate 6 HPC compute nodes. The network adapter 
  (NIC) in each guest OS is virtual. The Xen networking type is bridged. Running 
  &quot;lspci -v&quot; and lsusb in each guest OS does not show up 
  anything.<br><br>According to Appendix A troubleshooting section of the MPICH2 
  install guide, I have verified that the 2-node test scenario with &quot;mpdcheck 
  -s&quot; and &quot;mpdcheck -c&quot; is working. The 2 nodes each acting as server and client 
  respectively can communicate with each other without problems. Both nodes can 
  communicate with each other in server and client modes respectively. I have 
  also tested mpdboot with the 2-node scenario and the ring of mpd is 
  working.<br><br>After the troubleshooting process, I have successfully created 
  a ring of mpd involving 6 compute nodes. &quot;mpdtrace -l&quot; successfully lists all 
  the 6 nodes. However, when I want to run a job with mpiexec, it gives me the 
  following error:<br><br>[enming@enming-f11-pv-hpc-node0001 ~]$ mpiexec -n 2 
  examples/cpi<br>mpiexec_enming-f11-pv-hpc-node0001 (mpiexec 392): no msg recvd 
  from mpd when expecting ack of request<br><br>I have also tried starting the 
  mpd ring with the root user but I still encounter the same error 
  above.<br><br>Thank you.<br><br>PS. config.log is also attached.<br clear="all"><br>-- <br>Mr. Teo En Ming (Zhang Enming) Dip(Mechatronics) 
  BEng(Hons)(Mechanical Engineering)<br>Alma Maters:<br>(1) Singapore 
  Polytechnic<br>(2) National University of Singapore<br>My blog URL: <a href="http://teo-en-ming-aka-zhang-enming.blogspot.com" target="_blank">http://teo-en-ming-aka-zhang-enming.blogspot.com</a><br>My 
  Youtube videos: <a href="http://www.youtube.com/user/enmingteo" target="_blank">http://www.youtube.com/user/enmingteo</a><br>Email: 
  <a href="mailto:space.time.universe@gmail.com" target="_blank">space.time.universe@gmail.com</a><br>MSN: 
  <a href="mailto:teoenming@hotmail.com" target="_blank">teoenming@hotmail.com</a><br>Mobile 
  Phone (SingTel): +65-9648-9798<br>Mobile Phone (Starhub Prepaid): 
  +65-8369-2618<br>Age: 31 (as at 30 Oct 2009)<br>Height: 1.78 meters<br>Race: 
  Chinese<br>Dialect: Hokkien<br>Street: Bedok Reservoir Road<br>Country: 
  Singapore<br></div></div></blockquote></div>
<br>_______________________________________________<br>
mpich-discuss mailing list<br>
<a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
<br></blockquote></div><br><br clear="all"><br><br>