<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=iso-8859-1">
<META NAME="Generator" CONTENT="MS Exchange Server version 6.5.7036.0">
<TITLE>RE: [mpich-discuss] unable to connect ?</TITLE>
</HEAD>
<BODY>
<!-- Converted from text/plain format -->

<P><FONT SIZE=2>&nbsp;Hi,<BR>
&nbsp; Good to know MPICH2 is working for you now.<BR>
<BR>
&gt;&gt; ...the cpi.exe runs with the same input in 1,872297s running on both machines ...<BR>
&nbsp; You must consider the cost of network communication. Try increasing the number of iterations.<BR>
<BR>
&gt;&gt; mpiexec with the -log switch shouldn't create some logfile ...<BR>
&nbsp; Are you trying to use Jumpshot to analyse your code ? Make sure that you add the &quot;-log&quot; option before the name of the MPI program (mpiexec -log -n 2 cpi.exe).<BR>
<BR>
Regards,<BR>
Jayesh<BR>
<BR>
-----Original Message-----<BR>
From: kiss attila [<A HREF="mailto:kissattila2008@gmail.com">mailto:kissattila2008@gmail.com</A>]<BR>
Sent: Friday, February 27, 2009 11:16 AM<BR>
To: Jayesh Krishna<BR>
Cc: mpich-discuss@mcs.anl.gov<BR>
Subject: Re: [mpich-discuss] unable to connect ?<BR>
<BR>
:)))))))))))<BR>
S U C C E S S ! ! !<BR>
&nbsp;Thanks a lot. Probably i've played with instalation settings and modified the passphrase, but now it works :).<BR>
<BR>
Hmmm.... a strange thing: the cpi.exe runs with the same input in 1,872297s running on both machines,&nbsp; 1,869439s running on 10.0.0.13 and 1.897818s runnning on 10.0.0.10. I thought running on two machines would be the fastest.<BR>
<BR>
mpiexec with the -log switch shouldn't create some logfile? I can't find any logfiles in the mpich2 folders.<BR>
<BR>
&nbsp;regards<BR>
K.A. Albert<BR>
<BR>
2009/2/27 Jayesh Krishna &lt;jayesh@mcs.anl.gov&gt;:<BR>
&gt;  Hi,<BR>
&gt;   From your debug logs the problem does not appear to be a network<BR>
&gt; connectivity issue. It looks more like a configuration issue,<BR>
&gt;<BR>
&gt; ============== snip ========================<BR>
&gt; ...\smpd_state_reading_connect_result<BR>
&gt; ....read connect result: 'FAIL'<BR>
&gt; ....connection rejected, server returned - FAIL ============== snip<BR>
&gt; ========================<BR>
&gt;<BR>
&gt;   Your PM connection can get rejected due to the foll reasons,<BR>
&gt;<BR>
&gt; # There is a mismatch in the version of MPICH2 software installed on<BR>
&gt; the multiple machines.<BR>
&gt; # There is a mismatch in the passphrase used on the multiple machines<BR>
&gt; (You enter this &quot;passphrase&quot; during MPICH2 installation).<BR>
&gt;<BR>
&gt;   I would recommend the following,<BR>
&gt;<BR>
&gt; # Uninstall MPICH2 on both the machines.<BR>
&gt; # Download the latest stable version (1.0.8) of MPICH2 from the<BR>
&gt; downloads page<BR>
&gt; (<A HREF="http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads">http://www.mcs.anl.gov/research/projects/mpich2/downloads/index.php?s=downloads</A>).<BR>
&gt; # Install MPICH2 on the machines using the installer downloaded from<BR>
&gt; the downloads page.<BR>
&gt;<BR>
&gt; ------- Make sure that you keep the default settings for passphrase<BR>
&gt; during the installation<BR>
&gt; ------- Also make sure that all users have access to MPICH2 (Change<BR>
&gt; the default option from &quot;Just me&quot; to &quot;Everyone&quot; during installation)<BR>
&gt;<BR>
&gt; # If your machine is not part of a domain, when registering the<BR>
&gt; username/password with mpiexec don't specify any domain name. Also<BR>
&gt; validate, as before, after registering the user.<BR>
&gt;<BR>
&gt;  Let us know the results.<BR>
&gt;<BR>
&gt; (PS: There is no specific configuration required, apart from the info<BR>
&gt; above, to get MPICH2 working across multiple windows machines)<BR>
&gt;<BR>
&gt; Regards,<BR>
&gt; Jayesh<BR>
&gt;<BR>
&gt; -----Original Message-----<BR>
&gt; From: kiss attila [<A HREF="mailto:kissattila2008@gmail.com">mailto:kissattila2008@gmail.com</A>]<BR>
&gt; Sent: Thursday, February 26, 2009 11:45 PM<BR>
&gt; To: Jayesh Krishna<BR>
&gt; Cc: mpich-discuss@mcs.anl.gov<BR>
&gt; Subject: Re: [mpich-discuss] unable to connect ?<BR>
&gt;<BR>
&gt; Hi<BR>
&gt;<BR>
&gt;   I've tried now everything: I've created the same user, I've<BR>
&gt; validated this user ( mpiuser ), but still nothing... Can anyone send<BR>
&gt; me some config files from a  w o r k i n g Mpich2 setup based on windows workgroup (not domain).<BR>
&gt; Till then these are my output from smpd -d,  and mpiexec commands,<BR>
&gt; when I try to run from 10.0.0.10 hostname on remote computer<BR>
&gt; (10.0.0.13)<BR>
&gt;<BR>
&gt; D:\Program Files\MPICH2\bin&gt;smpd -d<BR>
&gt;<BR>
&gt; [00:2436]..\smpd_set_smpd_data<BR>
&gt; [00:2436]../smpd_set_smpd_data<BR>
&gt; [00:2436]..created a set for the listener: 1724 [00:2436]..smpd<BR>
&gt; listening on port 8676 [00:2436]..\smpd_create_context<BR>
&gt; [00:2436]...\smpd_init_context [00:2436]....\smpd_init_command<BR>
&gt; [00:2436]..../smpd_init_command [00:2436].../smpd_init_context<BR>
&gt; [00:2436]../smpd_create_context [00:2436]..\smpd_option_on<BR>
&gt; [00:2436]...\smpd_get_smpd_data<BR>
&gt; [00:2436]....\smpd_get_smpd_data_from_environment<BR>
&gt; [00:2436]..../smpd_get_smpd_data_from_environment<BR>
&gt; [00:2436]....\smpd_get_smpd_data_default<BR>
&gt; [00:2436]..../smpd_get_smpd_data_default<BR>
&gt; [00:2436]....Unable to get the data for the key 'no_dynamic_hosts'<BR>
&gt; [00:2436].../smpd_get_smpd_data<BR>
&gt; [00:2436]../smpd_option_on<BR>
&gt; [00:2436]..\smpd_insert_into_dynamic_hosts<BR>
&gt; [00:2436]../smpd_insert_into_dynamic_hosts<BR>
&gt; [00:2436]..\smpd_enter_at_state<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt; [00:2436]...SOCK_OP_ACCEPT<BR>
&gt; [00:2436]...\smpd_handle_op_accept<BR>
&gt; [00:2436]....\smpd_state_smpd_listening<BR>
&gt; [00:2436].....authenticating new connection<BR>
&gt; [00:2436].....\smpd_create_context<BR>
&gt; [00:2436]......\smpd_init_context<BR>
&gt; [00:2436].......\smpd_init_command<BR>
&gt; [00:2436]......./smpd_init_command<BR>
&gt; [00:2436]....../smpd_init_context<BR>
&gt; [00:2436]...../smpd_create_context<BR>
&gt; [00:2436].....\smpd_gen_authentication_strings<BR>
&gt; [00:2436]......\smpd_hash<BR>
&gt; [00:2436]....../smpd_hash<BR>
&gt; [00:2436]...../smpd_gen_authentication_strings<BR>
&gt; [00:2436].....posting a write of the challenge string: 1.0.8 7993<BR>
&gt; [00:2436]..../smpd_state_smpd_listening<BR>
&gt; [00:2436].../smpd_handle_op_accept<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt; [00:2436]...SOCK_OP_WRITE<BR>
&gt; [00:2436]...\smpd_handle_op_write<BR>
&gt; [00:2436]....\smpd_state_writing_challenge_string<BR>
&gt; [00:2436].....wrote challenge string: '1.0.8 7993'<BR>
&gt; [00:2436]..../smpd_state_writing_challenge_string<BR>
&gt; [00:2436].../smpd_handle_op_write<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt; [00:2436]...SOCK_OP_READ<BR>
&gt; [00:2436]...\smpd_handle_op_read<BR>
&gt; [00:2436]....\smpd_state_reading_challenge_response<BR>
&gt; [00:2436].....read challenge response: 'd6fdd96549e0c22c875ac55a2735a162'<BR>
&gt; [00:2436]..../smpd_state_reading_challenge_response<BR>
&gt; [00:2436].../smpd_handle_op_read<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt; [00:2436]...SOCK_OP_WRITE<BR>
&gt; [00:2436]...\smpd_handle_op_write<BR>
&gt; [00:2436]....\smpd_state_writing_connect_result<BR>
&gt; [00:2436].....wrote connect result: 'FAIL'<BR>
&gt; [00:2436].....connection reject string written, closing sock.<BR>
&gt; [00:2436]..../smpd_state_writing_connect_result<BR>
&gt; [00:2436].../smpd_handle_op_write<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt; [00:2436]...SOCK_OP_CLOSE<BR>
&gt; [00:2436]...\smpd_handle_op_close<BR>
&gt; [00:2436]....\smpd_get_state_string<BR>
&gt; [00:2436]..../smpd_get_state_string<BR>
&gt; [00:2436]....op_close received - SMPD_CLOSING state.<BR>
&gt; [00:2436]....Unaffiliated undetermined context closing.<BR>
&gt; [00:2436]....\smpd_free_context<BR>
&gt; [00:2436].....freeing undetermined context.<BR>
&gt; [00:2436].....\smpd_init_context<BR>
&gt; [00:2436]......\smpd_init_command<BR>
&gt; [00:2436]....../smpd_init_command<BR>
&gt; [00:2436]...../smpd_init_context<BR>
&gt; [00:2436]..../smpd_free_context<BR>
&gt; [00:2436].../smpd_handle_op_close<BR>
&gt; [00:2436]...sock_waiting for the next event.<BR>
&gt;<BR>
&gt;<BR>
&gt; C:\Program Files\MPICH2\bin&gt;mpiexec -verbose -hosts 1 10.0.0.13 -user<BR>
&gt; mpiuser hostname<BR>
&gt;<BR>
&gt; ..\smpd_add_host_to_default_list<BR>
&gt; ...\smpd_add_extended_host_to_default_list<BR>
&gt; .../smpd_add_extended_host_to_default_list<BR>
&gt; ../smpd_add_host_to_default_list<BR>
&gt; ..\smpd_hide_string_arg<BR>
&gt; ...\first_token<BR>
&gt; .../first_token<BR>
&gt; ...\compare_token<BR>
&gt; .../compare_token<BR>
&gt; ...\next_token<BR>
&gt; ....\first_token<BR>
&gt; ..../first_token<BR>
&gt; ....\first_token<BR>
&gt; ..../first_token<BR>
&gt; .../next_token<BR>
&gt; ../smpd_hide_string_arg<BR>
&gt; ../smpd_hide_string_arg<BR>
&gt; ..\smpd_hide_string_arg<BR>
&gt; ...\first_token<BR>
&gt; .../first_token<BR>
&gt; ...\compare_token<BR>
&gt; .../compare_token<BR>
&gt; ...\next_token<BR>
&gt; ....\first_token<BR>
&gt; ..../first_token<BR>
&gt; ....\first_token<BR>
&gt; ..../first_token<BR>
&gt; .../next_token<BR>
&gt; ../smpd_hide_string_arg<BR>
&gt; ../smpd_hide_string_arg<BR>
&gt; ..\smpd_get_full_path_name<BR>
&gt; ...fixing up exe name: 'hostname' -&gt; '(null)'<BR>
&gt; ../smpd_get_full_path_name<BR>
&gt; ..handling executable:<BR>
&gt; hostname.exe<BR>
&gt; ..\smpd_get_next_host<BR>
&gt; ...\smpd_get_host_id<BR>
&gt; .../smpd_get_host_id<BR>
&gt; ../smpd_get_next_host<BR>
&gt; ..\smpd_create_cliques<BR>
&gt; ...\next_launch_node<BR>
&gt; .../next_launch_node<BR>
&gt; ...\next_launch_node<BR>
&gt; .../next_launch_node<BR>
&gt; ../smpd_create_cliques<BR>
&gt; ..\smpd_fix_up_host_tree<BR>
&gt; ../smpd_fix_up_host_tree<BR>
&gt; ./mp_parse_command_args<BR>
&gt; .host tree:<BR>
&gt; . host: 10.0.0.13, parent: 0, id: 1<BR>
&gt; .launch nodes:<BR>
&gt; . iproc: 0, id: 1, exe: hostname.exe<BR>
&gt; .\smpd_get_smpd_data<BR>
&gt; ..\smpd_get_smpd_data_from_environment<BR>
&gt; ../smpd_get_smpd_data_from_environment<BR>
&gt; ./smpd_get_smpd_data<BR>
&gt; .\smpd_create_context<BR>
&gt; ..\smpd_init_context<BR>
&gt; ...\smpd_init_command<BR>
&gt; .../smpd_init_command<BR>
&gt; ../smpd_init_context<BR>
&gt; ./smpd_create_context<BR>
&gt; .\smpd_make_socket_loop<BR>
&gt; ..\smpd_get_hostname<BR>
&gt; ../smpd_get_hostname<BR>
&gt; ./smpd_make_socket_loop<BR>
&gt; .\smpd_create_context<BR>
&gt; ..\smpd_init_context<BR>
&gt; ...\smpd_init_command<BR>
&gt; .../smpd_init_command<BR>
&gt; ../smpd_init_context<BR>
&gt; ./smpd_create_context<BR>
&gt; .\smpd_enter_at_state<BR>
&gt; ..sock_waiting for the next event.<BR>
&gt; ..SOCK_OP_CONNECT<BR>
&gt; ..\smpd_handle_op_connect<BR>
&gt; ...connect succeeded, posting read of the challenge string<BR>
&gt; ../smpd_handle_op_connect ..sock_waiting for the next event.<BR>
&gt; ..SOCK_OP_READ<BR>
&gt; ..\smpd_handle_op_read<BR>
&gt; ...\smpd_state_reading_challenge_string<BR>
&gt; ....read challenge string: '1.0.8 7993'<BR>
&gt; ....\smpd_verify_version<BR>
&gt; ..../smpd_verify_version<BR>
&gt; ....\smpd_hash<BR>
&gt; ..../smpd_hash<BR>
&gt; .../smpd_state_reading_challenge_string<BR>
&gt; ../smpd_handle_op_read<BR>
&gt; ..sock_waiting for the next event.<BR>
&gt; ..SOCK_OP_WRITE<BR>
&gt; ..\smpd_handle_op_write<BR>
&gt; ...\smpd_state_writing_challenge_response<BR>
&gt; ....wrote challenge response: 'd6fdd96549e0c22c875ac55a2735a162'<BR>
&gt; .../smpd_state_writing_challenge_response<BR>
&gt; ../smpd_handle_op_write<BR>
&gt; ..sock_waiting for the next event.<BR>
&gt; ..SOCK_OP_READ<BR>
&gt; ..\smpd_handle_op_read<BR>
&gt; ...\smpd_state_reading_connect_result<BR>
&gt; ....read connect result: 'FAIL'<BR>
&gt; ....connection rejected, server returned - FAIL<BR>
&gt; ....\smpd_post_abort_command .....\smpd_create_command<BR>
&gt; ......\smpd_init_command ....../smpd_init_command<BR>
&gt; ...../smpd_create_command .....\smpd_add_command_arg ...../smpd_add_command_arg .....\smpd_command_destination ......0 -&gt; 0 :<BR>
&gt; returning NULL context ...../smpd_command_destination<BR>
&gt; Aborting: unable to connect to 10.0.0.13 ..../smpd_post_abort_command<BR>
&gt; ....\smpd_exit .....\smpd_kill_all_processes<BR>
&gt; ...../smpd_kill_all_processes .....\smpd_finalize_drive_maps<BR>
&gt; ...../smpd_finalize_drive_maps .....\smpd_dbs_finalize<BR>
&gt; ...../smpd_dbs_finalize<BR>
&gt;<BR>
&gt;<BR>
&gt; Thanks for any ideas.<BR>
&gt; regards<BR>
&gt; K.A. Albert<BR>
&gt;<BR>
&gt; 2009/2/26 Jayesh Krishna &lt;jayesh@mcs.anl.gov&gt;:<BR>
&gt;&gt; Hi,<BR>
&gt;&gt;<BR>
&gt;&gt;&gt;&gt;.. I launch mpiexec.exe from an another windows user acount...<BR>
&gt;&gt;<BR>
&gt;&gt;  This could be your problem. You can try registering a<BR>
&gt;&gt; username/password available on both the machines using the &quot;-user&quot;<BR>
&gt;&gt; option (mpiexec -register -user 1) &amp; launch your job using that user<BR>
&gt;&gt; (mpiexec -n 2 -user 1 -hosts 2 10.0.0.10 10.0.0.13 hostname). You can<BR>
&gt;&gt; also validate if the user credentials are capable of launching a job<BR>
&gt;&gt; using the &quot;-validate&quot; option of mpiexec (mpiexec -validate -user 1<BR>
&gt;&gt; 10.0.0.10 ; mpiexec -validate -user 1 10.0.0.13)<BR>
&gt;&gt;<BR>
&gt;&gt; (PS: Did you copy-paste the complete output of the mpiexec command &amp;<BR>
&gt;&gt; the command itself ? Please don't remove any part of the output. This<BR>
&gt;&gt; will help us in debugging your problem.)<BR>
&gt;&gt;<BR>
&gt;&gt; Regards,<BR>
&gt;&gt; Jayesh<BR>
&gt;&gt;<BR>
&gt;&gt; -----Original Message-----<BR>
&gt;&gt; From: kiss attila [<A HREF="mailto:kissattila2008@gmail.com">mailto:kissattila2008@gmail.com</A>]<BR>
&gt;&gt; Sent: Thursday, February 26, 2009 12:26 AM<BR>
&gt;&gt; To: Jayesh Krishna<BR>
&gt;&gt; Subject: Re: [mpich-discuss] unable to connect ?<BR>
&gt;&gt;<BR>
&gt;&gt; 1. Yes, the ping works fine. With wmpiconfig.exe i can see both machines.<BR>
&gt;&gt; 2. MPICH2 1.0.8 installed on both.<BR>
&gt;&gt; 3. No firewalls of any kind.<BR>
&gt;&gt; 4. On  smpd -status i get:<BR>
&gt;&gt; smpd running on 10.0.0.10<BR>
&gt;&gt; smpd running on 10.0.0.13<BR>
&gt;&gt;<BR>
&gt;&gt; 5. from 10.0.0.10<BR>
&gt;&gt; C:\Program Files\MPICH2\bin&gt;mpiexec -hosts 2 10.0.0.10 10.0.0.13<BR>
&gt;&gt; hostname<BR>
&gt;&gt; abort: unable to connect to 10.0.0.13<BR>
&gt;&gt;<BR>
&gt;&gt; from 10.0.0.13<BR>
&gt;&gt; C:\Program Files\MPICH2\bin&gt;mpiexec -hosts 2 10.0.0.10 10.0.0.13<BR>
&gt;&gt; hostname<BR>
&gt;&gt; abort: unable to connect to 10.0.0.10<BR>
&gt;&gt;<BR>
&gt;&gt; and here is the -verbose mode:<BR>
&gt;&gt;<BR>
&gt;&gt; ...../first_token<BR>
&gt;&gt; .....\compare_token<BR>
&gt;&gt; ...../compare_token<BR>
&gt;&gt; .....\next_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ...../next_token<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; .....\smpd_option_on<BR>
&gt;&gt; ......\smpd_get_smpd_data<BR>
&gt;&gt; .......\smpd_get_smpd_data_from_environment<BR>
&gt;&gt; ......./smpd_get_smpd_data_from_environment<BR>
&gt;&gt; .......\smpd_get_smpd_data_default<BR>
&gt;&gt; ......./smpd_get_smpd_data_default<BR>
&gt;&gt; .......Unable to get the data for the key 'nocache'<BR>
&gt;&gt; ....../smpd_get_smpd_data<BR>
&gt;&gt; ...../smpd_option_on<BR>
&gt;&gt; ....\smpd_hide_string_arg<BR>
&gt;&gt; .....\first_token<BR>
&gt;&gt; ...../first_token<BR>
&gt;&gt; .....\compare_token<BR>
&gt;&gt; ...../compare_token<BR>
&gt;&gt; .....\next_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ...../next_token<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_state_writing_cred_ack_yes<BR>
&gt;&gt; .....wrote cred request yes ack.<BR>
&gt;&gt; ..../smpd_state_writing_cred_ack_yes<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_state_writing_account<BR>
&gt;&gt; .....wrote account: 'mpiuser'<BR>
&gt;&gt; .....\smpd_encrypt_data<BR>
&gt;&gt; ...../smpd_encrypt_data<BR>
&gt;&gt; ..../smpd_state_writing_account<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_hide_string_arg<BR>
&gt;&gt; .....\first_token<BR>
&gt;&gt; ...../first_token<BR>
&gt;&gt; .....\compare_token<BR>
&gt;&gt; ...../compare_token<BR>
&gt;&gt; .....\next_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ...../next_token<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; .....\smpd_hide_string_arg<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ......\compare_token<BR>
&gt;&gt; ....../compare_token<BR>
&gt;&gt; ......\next_token<BR>
&gt;&gt; .......\first_token<BR>
&gt;&gt; ......./first_token<BR>
&gt;&gt; .......\first_token<BR>
&gt;&gt; ......./first_token<BR>
&gt;&gt; ....../next_token<BR>
&gt;&gt; ...../smpd_hide_string_arg<BR>
&gt;&gt; ...../smpd_hide_string_arg<BR>
&gt;&gt; ....\smpd_hide_string_arg<BR>
&gt;&gt; .....\first_token<BR>
&gt;&gt; ...../first_token<BR>
&gt;&gt; .....\compare_token<BR>
&gt;&gt; ...../compare_token<BR>
&gt;&gt; .....\next_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ......\first_token<BR>
&gt;&gt; ....../first_token<BR>
&gt;&gt; ...../next_token<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; ..../smpd_hide_string_arg<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_process_result<BR>
&gt;&gt; .....read process session result: 'SUCCESS'<BR>
&gt;&gt; ..../smpd_state_reading_process_result<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_reconnect_request<BR>
&gt;&gt; .....read re-connect request: '3972'<BR>
&gt;&gt; .....closing the old socket in the left context.<BR>
&gt;&gt; .....MPIDU_Sock_post_close(1720)<BR>
&gt;&gt; .....connecting a new socket.<BR>
&gt;&gt; .....\smpd_create_context<BR>
&gt;&gt; ......\smpd_init_context<BR>
&gt;&gt; .......\smpd_init_command<BR>
&gt;&gt; ......./smpd_init_command<BR>
&gt;&gt; ....../smpd_init_context<BR>
&gt;&gt; ...../smpd_create_context<BR>
&gt;&gt; .....posting a re-connect to 10.0.0.10:3972 in left context.<BR>
&gt;&gt; ..../smpd_state_reading_reconnect_request<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_CLOSE<BR>
&gt;&gt; ...\smpd_handle_op_close<BR>
&gt;&gt; ....\smpd_get_state_string<BR>
&gt;&gt; ..../smpd_get_state_string<BR>
&gt;&gt; ....op_close received - SMPD_CLOSING state.<BR>
&gt;&gt; ....Unaffiliated left context closing.<BR>
&gt;&gt; ....\smpd_free_context<BR>
&gt;&gt; .....freeing left context.<BR>
&gt;&gt; .....\smpd_init_context<BR>
&gt;&gt; ......\smpd_init_command<BR>
&gt;&gt; ....../smpd_init_command<BR>
&gt;&gt; ...../smpd_init_context<BR>
&gt;&gt; ..../smpd_free_context<BR>
&gt;&gt; .../smpd_handle_op_close<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_CONNECT<BR>
&gt;&gt; ...\smpd_handle_op_connect<BR>
&gt;&gt; ....\smpd_generate_session_header<BR>
&gt;&gt; .....session header: (id=1 parent=0 level=0)<BR>
&gt;&gt; ..../smpd_generate_session_header .../smpd_handle_op_connect<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_state_writing_session_header<BR>
&gt;&gt; .....wrote session header: 'id=1 parent=0 level=0'<BR>
&gt;&gt; .....\smpd_post_read_command<BR>
&gt;&gt; ......posting a read for a command header on the left context, sock<BR>
&gt;&gt; 1656 ...../smpd_post_read_command .....creating connect command for<BR>
&gt;&gt; left node .....creating connect command to '10.0.0.13'<BR>
&gt;&gt; .....\smpd_create_command<BR>
&gt;&gt; ......\smpd_init_command<BR>
&gt;&gt; ....../smpd_init_command<BR>
&gt;&gt; ...../smpd_create_command<BR>
&gt;&gt; .....\smpd_add_command_arg<BR>
&gt;&gt; ...../smpd_add_command_arg<BR>
&gt;&gt; .....\smpd_add_command_int_arg<BR>
&gt;&gt; ...../smpd_add_command_int_arg<BR>
&gt;&gt; .....\smpd_post_write_command<BR>
&gt;&gt; ......\smpd_package_command<BR>
&gt;&gt; ....../smpd_package_command<BR>
&gt;&gt; ......smpd_post_write_command on the left context sock 1656: 65 bytes<BR>
&gt;&gt; for<BR>
&gt;&gt; command: &quot;cmd=connect src=0 dest=1 tag=0 host=10.0.0.13 id=2 &quot;<BR>
&gt;&gt; ...../smpd_post_write_command<BR>
&gt;&gt; .....not connected yet: 10.0.0.13 not connected<BR>
&gt;&gt; ..../smpd_state_writing_session_header<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_state_writing_cmd<BR>
&gt;&gt; .....wrote command<BR>
&gt;&gt; .....command written to left: &quot;cmd=connect src=0 dest=1 tag=0<BR>
&gt;&gt; host=10.0.0.13 id=2 &quot;<BR>
&gt;&gt; .....moving 'connect' command to the wait_list.<BR>
&gt;&gt; ..../smpd_state_writing_cmd<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_cmd_header<BR>
&gt;&gt; .....read command header<BR>
&gt;&gt; .....command header read, posting read for data: 69 bytes<BR>
&gt;&gt; ..../smpd_state_reading_cmd_header<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_cmd<BR>
&gt;&gt; .....read command<BR>
&gt;&gt; .....\smpd_parse_command<BR>
&gt;&gt; ...../smpd_parse_command<BR>
&gt;&gt; .....read command: &quot;cmd=abort src=1 dest=0 tag=0 error=&quot;unable to<BR>
&gt;&gt; connect to 10.0.0.13&quot; &quot;<BR>
&gt;&gt; .....\smpd_handle_command<BR>
&gt;&gt; ......handling command:<BR>
&gt;&gt; ...... src  = 1<BR>
&gt;&gt; ...... dest = 0<BR>
&gt;&gt; ...... cmd  = abort<BR>
&gt;&gt; ...... tag  = 0<BR>
&gt;&gt; ...... ctx  = left<BR>
&gt;&gt; ...... len  = 69<BR>
&gt;&gt; ...... str  = cmd=abort src=1 dest=0 tag=0 error=&quot;unable to connect<BR>
&gt;&gt; to 10.0.0.13&quot;<BR>
&gt;&gt; ......\smpd_command_destination<BR>
&gt;&gt; .......0 -&gt; 0 : returning NULL context<BR>
&gt;&gt; ....../smpd_command_destination ......\smpd_handle_abort_command<BR>
&gt;&gt; .......abort: unable to connect to 10.0.0.13<BR>
&gt;&gt; ....../smpd_handle_abort_command ...../smpd_handle_command<BR>
&gt;&gt; .....\smpd_post_read_command ......posting a read for a command<BR>
&gt;&gt; header on the left context, sock 1656 ...../smpd_post_read_command<BR>
&gt;&gt; .....\smpd_create_command ......\smpd_init_command<BR>
&gt;&gt; ....../smpd_init_command ...../smpd_create_command<BR>
&gt;&gt; .....\smpd_post_write_command ......\smpd_package_command<BR>
&gt;&gt; ....../smpd_package_command ......smpd_post_write_command on the left<BR>
&gt;&gt; context sock 1656: 43 bytes for<BR>
&gt;&gt; command: &quot;cmd=close src=0 dest=1 tag=1 &quot;<BR>
&gt;&gt; ...../smpd_post_write_command<BR>
&gt;&gt; ..../smpd_state_reading_cmd<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_cmd_header<BR>
&gt;&gt; .....read command header<BR>
&gt;&gt; .....command header read, posting read for data: 31 bytes<BR>
&gt;&gt; ..../smpd_state_reading_cmd_header<BR>
&gt;&gt; .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_WRITE<BR>
&gt;&gt; ...\smpd_handle_op_write<BR>
&gt;&gt; ....\smpd_state_writing_cmd<BR>
&gt;&gt; .....wrote command<BR>
&gt;&gt; .....command written to left: &quot;cmd=close src=0 dest=1 tag=1 &quot;<BR>
&gt;&gt; .....\smpd_free_command<BR>
&gt;&gt; ......\smpd_init_command<BR>
&gt;&gt; ....../smpd_init_command<BR>
&gt;&gt; ...../smpd_free_command<BR>
&gt;&gt; ..../smpd_state_writing_cmd<BR>
&gt;&gt; .../smpd_handle_op_write<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_READ<BR>
&gt;&gt; ...\smpd_handle_op_read<BR>
&gt;&gt; ....\smpd_state_reading_cmd<BR>
&gt;&gt; .....read command<BR>
&gt;&gt; .....\smpd_parse_command<BR>
&gt;&gt; ...../smpd_parse_command<BR>
&gt;&gt; .....read command: &quot;cmd=closed src=1 dest=0 tag=1 &quot;<BR>
&gt;&gt; .....\smpd_handle_command<BR>
&gt;&gt; ......handling command:<BR>
&gt;&gt; ...... src  = 1<BR>
&gt;&gt; ...... dest = 0<BR>
&gt;&gt; ...... cmd  = closed<BR>
&gt;&gt; ...... tag  = 1<BR>
&gt;&gt; ...... ctx  = left<BR>
&gt;&gt; ...... len  = 31<BR>
&gt;&gt; ...... str  = cmd=closed src=1 dest=0 tag=1<BR>
&gt;&gt; ......\smpd_command_destination .......0 -&gt; 0 : returning NULL<BR>
&gt;&gt; context ....../smpd_command_destination<BR>
&gt;&gt; ......\smpd_handle_closed_command .......closed command received from left child, closing sock.<BR>
&gt;&gt; .......MPIDU_Sock_post_close(1656)<BR>
&gt;&gt; .......received a closed at node with no parent context, assuming<BR>
&gt;&gt; root, returning SMPD_EXITING.<BR>
&gt;&gt; ....../smpd_handle_closed_command<BR>
&gt;&gt; ...../smpd_handle_command<BR>
&gt;&gt; .....not posting read for another command because SMPD_EXITING<BR>
&gt;&gt; returned ..../smpd_state_reading_cmd .../smpd_handle_op_read<BR>
&gt;&gt; ...sock_waiting for the next event.<BR>
&gt;&gt; ...SOCK_OP_CLOSE<BR>
&gt;&gt; ...\smpd_handle_op_close<BR>
&gt;&gt; ....\smpd_get_state_string<BR>
&gt;&gt; ..../smpd_get_state_string<BR>
&gt;&gt; ....op_close received - SMPD_EXITING state.<BR>
&gt;&gt; ....\smpd_free_context<BR>
&gt;&gt; .....freeing left context.<BR>
&gt;&gt; .....\smpd_init_context<BR>
&gt;&gt; ......\smpd_init_command<BR>
&gt;&gt; ....../smpd_init_command<BR>
&gt;&gt; ...../smpd_init_context<BR>
&gt;&gt; ..../smpd_free_context<BR>
&gt;&gt; .../smpd_handle_op_close<BR>
&gt;&gt; ../smpd_enter_at_state<BR>
&gt;&gt; ./main<BR>
&gt;&gt; .\smpd_exit<BR>
&gt;&gt; ..\smpd_kill_all_processes<BR>
&gt;&gt; ../smpd_kill_all_processes<BR>
&gt;&gt; ..\smpd_finalize_drive_maps<BR>
&gt;&gt; ../smpd_finalize_drive_maps<BR>
&gt;&gt; ..\smpd_dbs_finalize<BR>
&gt;&gt; ../smpd_dbs_finalize<BR>
&gt;&gt;<BR>
&gt;&gt; I have registered with wmpiregister.exe the same user with the same<BR>
&gt;&gt; password on both computers but I launch mpiexec.exe from an another<BR>
&gt;&gt; windows user acount; could this be a problem?. Thanks<BR>
&gt;&gt;<BR>
&gt;&gt; regards<BR>
&gt;&gt; k.a.albert<BR>
&gt;&gt;<BR>
&gt;&gt;<BR>
&gt;&gt;<BR>
&gt;&gt;<BR>
&gt;&gt; 2009/2/25 Jayesh Krishna &lt;jayesh@mcs.anl.gov&gt;:<BR>
&gt;&gt;&gt;  Hi,<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; # Can you ping the machines from each other ?<BR>
&gt;&gt;&gt; # Make sure that you have the same version of MPICH2 installed on<BR>
&gt;&gt;&gt; both the machines.<BR>
&gt;&gt;&gt; # Do you have any firewalls (windows, third-party) running on the<BR>
&gt;&gt;&gt; machines (Turn off any firewalls running on the machines)?<BR>
&gt;&gt;&gt; # Make sure that you have the MPICH2 process manager, smpd.exe,<BR>
&gt;&gt;&gt; running as a service on both the machines (To check the status of<BR>
&gt;&gt;&gt; the process manager type, smpd -status, at the command prompt).<BR>
&gt;&gt;&gt; # Before trying to execute an MPI program like cpi.exe, try<BR>
&gt;&gt;&gt; executing a non-MPI program like hostname on the machines (mpiexec<BR>
&gt;&gt;&gt; -hosts 2 10.0.0.10<BR>
&gt;&gt;&gt; 10.0.0.13 hostname).<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt;  Let us know the results.<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; (PS: In your reply please copy-paste the commands and the output)<BR>
&gt;&gt;&gt; Regards, Jayesh<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; -----Original Message-----<BR>
&gt;&gt;&gt; From: mpich-discuss-bounces@mcs.anl.gov<BR>
&gt;&gt;&gt; [<A HREF="mailto:mpich-discuss-bounces@mcs.anl.gov">mailto:mpich-discuss-bounces@mcs.anl.gov</A>] On Behalf Of kiss attila<BR>
&gt;&gt;&gt; Sent: Wednesday, February 25, 2009 1:46 PM<BR>
&gt;&gt;&gt; To: mpich-discuss@mcs.anl.gov<BR>
&gt;&gt;&gt; Subject: [mpich-discuss] unable to connect ?<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; Hi<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt;   I have two WinXp machines (10.0.0.13,10.0.0.10) with mpich2<BR>
&gt;&gt;&gt; installed, and on this command:<BR>
&gt;&gt;&gt; &quot;D:\Program Files\MPICH2\bin\mpiexec.exe&quot; -hosts 2 10.0.0.10<BR>
&gt;&gt;&gt; 10.0.0.13 -noprompt c:\ex\cpi.exe<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; I get:<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; Aborting: unable to connect to 10.0.0.10<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; Somehow I can't start any process on the remote machine(10.0.0.10).<BR>
&gt;&gt;&gt; It annoys me, that a few days ago it worked, but I had to reinstall<BR>
&gt;&gt;&gt; one of them, and since then i couldn't figure it out what's wrong<BR>
&gt;&gt;&gt; with my settings.  thanks.<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;&gt; regards<BR>
&gt;&gt;&gt; K.A. Albert<BR>
&gt;&gt;&gt;<BR>
&gt;&gt;<BR>
&gt;<BR>
</FONT>
</P>

</BODY>
</HTML>