<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:verdana,helvetica,sans-serif;font-size:10pt">thanks,<br>it works now... ^^<br><br>i made a new account with admin priviledge on both machine that has same username and password... so far, it works...<div><br></div><div style="font-family: verdana,helvetica,sans-serif; font-size: 10pt;"><br><div style="font-family: arial,helvetica,sans-serif; font-size: 13px;"><font size="2" face="Tahoma"><hr size="1"><b><span style="font-weight: bold;">From:</span></b> Jayesh Krishna &lt;jayesh@mcs.anl.gov&gt;<br><b><span style="font-weight: bold;">To:</span></b> Sayed Zulfikar &lt;sayed.zulfikar@yahoo.com&gt;<br><b><span style="font-weight: bold;">Cc:</span></b> mpich-discuss@mcs.anl.gov<br><b><span style="font-weight: bold;">Sent:</span></b> Mon, January 24, 2011 9:21:19 AM<br><b><span style="font-weight: bold;">Subject:</span></b> Re: help-mpich2-unable to
 connect<br></font><br>
Hi,<br> You need to have the same username (with the same password) on both the machines for launching MPI jobs (Or use a domain user on both machines). Create local users on both the machines with the same username/password and let us know if MPICH2 works for you.<br><br>Regards,<br>Jayesh<br><br>----- Original Message -----<br>From: "Sayed Zulfikar" &lt;<a ymailto="mailto:sayed.zulfikar@yahoo.com" href="mailto:sayed.zulfikar@yahoo.com">sayed.zulfikar@yahoo.com</a>&gt;<br>To: "Jayesh Krishna" &lt;<a ymailto="mailto:jayesh@mcs.anl.gov" href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a>&gt;<br>Cc: <a ymailto="mailto:mpich-discuss@mcs.anl.gov" href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>Sent: Monday, January 24, 2011 11:09:35 AM<br>Subject: Re: help-mpich2-unable to connect<br><br><br>sorry, i forgot to mail to mpich-discuss, my bad... <br><br>Can you ping one machine from the other (192.168.1.3 from 192.168.1.5 and
 192.168.1.5 from 192.168.1.3) ? <br>=&gt; yes i can, both machine can ping each other <br><br><br>Do you have the same username on both the machines (And from your email I am assuming that you are able to run your job locally on each machine, right ? )? <br>=&gt; no, the username are different, but the password and passphrase is same <br>yes, i am able to run my job locally on each machine, <br>the error message said that "unable connect to xxxx" <br>i've tried on both machine, but the error message just the same.. <br><br>can anybody help me with this problem? <br><br>thx <br><br><br><br>From: Jayesh Krishna &lt;<a ymailto="mailto:jayesh@mcs.anl.gov" href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a>&gt; <br>To: Sayed Zulfikar &lt;<a ymailto="mailto:sayed.zulfikar@yahoo.com" href="mailto:sayed.zulfikar@yahoo.com">sayed.zulfikar@yahoo.com</a>&gt; <br>Cc: <a ymailto="mailto:mpich-discuss@mcs.anl.gov"
 href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a> <br>Sent: Mon, January 17, 2011 9:57:12 PM <br>Subject: Re: help-mpich2-unable to connect <br><br>Hi, <br>Can you ping one machine from the other (192.168.1.3 from 192.168.1.5 and 192.168.1.5 from 192.168.1.3) ? <br>Do you have the same username on both the machines (And from your email I am assuming that you are able to run your job locally on each machine, right ? )? <br><br>(PS: Please copy your response to mpich-discuss, Apart from me other devs and users can also pitch in with their comments/solns) <br><br>Regards, <br>Jayesh <br><br>----- Original Message ----- <br>From: "Sayed Zulfikar" &lt; <a ymailto="mailto:sayed.zulfikar@yahoo.com" href="mailto:sayed.zulfikar@yahoo.com">sayed.zulfikar@yahoo.com</a> &gt; <br>To: "jayesh MPICH2 master" &lt; <a ymailto="mailto:jayesh@mcs.anl.gov" href="mailto:jayesh@mcs.anl.gov">jayesh@mcs.anl.gov</a> &gt; <br>Sent: Saturday, January 15, 2011
 4:24:51 PM <br>Subject: help-mpich2-unable to connect <br><br><br>dear jayesh, <br><br><br><br><br>i'm sorry for mailing you, but from what i found in internet, you are the guy that often help people with MPICH2, <br><br>e.g in this link <br><br><span><a target="_blank" href="http://lists.mcs.anl.gov/pipermail/mpich-discuss/2009-February/004657.html">http://lists.mcs.anl.gov/pipermail/mpich-discuss/2009-February/004657.html</a> </span><br><br>you help the guy, <br><br>i have the same problem, when i try to running MPICH2 with 2 computers connected by LAN cable, it is said <br>"abort : unable to connect to 192.168.1.3" <br><br>note : i made the ip static, my computer is 192.168.1.5 and the other one is 192.168.1.3 <br>i test running the cpi.exe and some other parallel files in my single computer that has procesor core 2 duo, and it run correctly <br>i use mpich2 1.3 <br>both machine is using windows 7 profesional <br><br>seem like i have done what you
 have suggest in that link, <br>i turn off the firewall <br>i made sure both machine run the same smpd version <br>i made sure both machine installed MPICH2 correctly, (run in admin priviledge, for everyone and default passphrase) <br>i use "mpiexec -register -user 1" and then i didn't enter the username, i just simply press "enter" button and then i enter the password "behappy" <br>i validated that user then i run mpiexec -hosts2 xxxxxxx xxxxxx - user 1, which didn't work <br>i made both machine has same logon password, "behappy" <br><br>thank you, <br><br>this is the verbose <br><br>..handling executable: <br>C:\pp\MergeSort.exe <br>..Processing environment variables <br>..Processing drive mappings <br>..Creating launch nodes (2) <br>..\smpd_get_next_host <br>...\smpd_get_host_id <br>.../smpd_get_host_id <br>../smpd_get_next_host <br>..Adding host (192.168.1.5) to launch list <br>..\smpd_get_next_host <br>...\smpd_get_host_id <br>.../smpd_get_host_id
 <br>../smpd_get_next_host <br>..Adding host (192.168.1.3) to launch list <br>..\smpd_create_cliques <br>...\prev_launch_node <br>.../prev_launch_node <br>...\prev_launch_node <br>.../prev_launch_node <br>...\prev_launch_node <br>.../prev_launch_node <br>...\prev_launch_node <br>.../prev_launch_node <br>../smpd_create_cliques <br>..\smpd_fix_up_host_tree <br>../smpd_fix_up_host_tree <br>./mp_parse_command_args <br>.host tree: <br>. host: 192.168.1.5, parent: 0, id: 1 <br>. host: 192.168.1.3, parent: 1, id: 2 <br>.launch nodes: <br>. iproc: 1, id: 2, exe: C:\pp\MergeSort.exe <br>. iproc: 0, id: 1, exe: C:\pp\MergeSort.exe <br>.\SMPDU_Sock_create_set <br>..\smpd_get_smpd_data <br>...\smpd_get_smpd_data_from_environment <br>.../smpd_get_smpd_data_from_environment <br>../smpd_get_smpd_data <br>..\smpd_create_context <br>...\smpd_init_context <br>....\smpd_init_command <br>..../smpd_init_command <br>.../smpd_init_context <br>../smpd_create_context
 <br>..\SMPDU_Sock_post_connect <br>../SMPDU_Sock_post_connect <br>..\SMPDU_Sock_set_user_ptr <br>../SMPDU_Sock_set_user_ptr <br>..\smpd_make_socket_loop <br>...\smpd_get_hostname <br>.../smpd_get_hostname <br>../smpd_make_socket_loop <br>..\SMPDU_Sock_native_to_sock <br>../SMPDU_Sock_native_to_sock <br>..\SMPDU_Sock_native_to_sock <br>../SMPDU_Sock_native_to_sock <br>..\smpd_create_context <br>...\smpd_init_context <br>....\smpd_init_command <br>..../smpd_init_command <br>....\SMPDU_Sock_set_user_ptr <br>..../SMPDU_Sock_set_user_ptr <br>.../smpd_init_context <br>../smpd_create_context <br>..\SMPDU_Sock_post_read <br>...\SMPDU_Sock_post_readv .../SMPDU_Sock_post_readv <br>../SMPDU_Sock_post_read <br>..\smpd_enter_at_state <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_CONNECT event.error = 0, result = 0, context=left <br>...\smpd_handle_op_connect <br>....connect succeeded, posting read of the
 challenge string <br>....\SMPDU_Sock_post_read <br>.....\SMPDU_Sock_post_readv <br>...../SMPDU_Sock_post_readv <br>..../SMPDU_Sock_post_read <br>.../smpd_handle_op_connect <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_READ event.error = 0, result = 0, context=left <br>...\smpd_handle_op_read <br>....\smpd_state_reading_challenge_string <br>.....read challenge string: '1.3 28253' <br>.....\smpd_verify_version <br>...../smpd_verify_version <br>.....Verification of smpd version succeeded <br>.....\smpd_hash <br>...../smpd_hash <br>.....\SMPDU_Sock_post_write <br>......\SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_writev <br>...../SMPDU_Sock_post_write <br>..../smpd_state_reading_challenge_string <br>.../smpd_handle_op_read <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_WRITE event.error = 0, result = 0, context=left
 <br>...\smpd_handle_op_write <br>....\smpd_state_writing_challenge_response <br>.....wrote challenge response: 'ac829821dd2160834c62236a36b026c8' <br>.....\SMPDU_Sock_post_read <br>......\SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_readv <br>...../SMPDU_Sock_post_read <br>..../smpd_state_writing_challenge_response <br>.../smpd_handle_op_write <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_READ event.error = 0, result = 0, context=left <br>...\smpd_handle_op_read <br>....\smpd_state_reading_connect_result <br>.....read connect result: 'SUCCESS' <br>.....\SMPDU_Sock_post_write <br>......\SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_writev <br>...../SMPDU_Sock_post_write <br>..../smpd_state_reading_connect_result <br>.../smpd_handle_op_read <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_WRITE event.error = 0, result = 0, context=left
 <br>...\smpd_handle_op_write <br>....\smpd_state_writing_process_session_request <br>.....wrote process session request: 'process' <br>.....\SMPDU_Sock_post_read <br>......\SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_readv <br>...../SMPDU_Sock_post_read <br>..../smpd_state_writing_process_session_request <br>.../smpd_handle_op_write <br>...sock_waiting for the next event. <br>...\SMPDU_Sock_wait <br>.../SMPDU_Sock_wait <br>...SOCK_OP_READ event.error = 0, result = 0, context=left <br>...\smpd_handle_op_read <br>....\smpd_state_reading_cred_request <br>.....read cred request: 'credentials' <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>.....\smpd_hide_string_arg
 <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>. ....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg
 <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>......\smpd_option_on <br>.......\smpd_get_smpd_data <br>........\smpd_get_smpd_data_from_environment <br>......../smpd_get_smpd_data_from_environment <br>........\smpd_get_smpd_data_default <br>......../smpd_get_smpd_data_default <br>........Unable to get the data for the key 'nocache' <br>......./smpd_get_smpd_data <br>....../smpd_option_on <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token
 <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>.....\SMPDU_Sock_post_write <br>......\SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_writev <br>...../SMPDU_Sock_post_write <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_state_writing_cred_ack_yes <br>......wrote cred request yes ack. <br>......\SMPDU_Sock_post_write <br>.......\SMPDU_Sock_post_writev <br>......./SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_write <br>...../smpd_state_writing_cred_ack_yes <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_state_writing_account <br>......wrote account: 'morrow-PC\morrow'
 <br>......\smpd_encrypt_data <br>....../smpd_encrypt_data <br>......\SMPDU_Sock_post_write <br>.......\SMPDU_Sock_post_writev <br>......./SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_write <br>...../smpd_state_writing_account <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>.......\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>......\smpd_hide_string_arg <br>.......\first_token <br>......./first_token <br>.......\compare_token <br>......./compare_token <br>.......\next_token <br>........\first_token
 <br>......../first_token <br>........\first_token <br>......../first_token <br>......./next_token <br>....../smpd_hide_string_arg <br>....../smpd_hide_string_arg <br>......\SMPDU_Sock_post_read <br>.......\SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_read <br>.....\smpd_hide_string_arg <br>......\first_token <br>....../first_token <br>......\compare_token <br>....../compare_token <br>......\next_token <br>..... ..\first_token <br>......./first_token <br>.......\first_token <br>......./first_token <br>....../next_token <br>...../smpd_hide_string_arg <br>...../smpd_hide_string_arg <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_process_result <br>......read process session result: 'SUCCESS' <br>......\SMPDU_Sock_post_read
 <br>.......\SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_read <br>...../smpd_state_reading_process_result <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_reconnect_request <br>......read re-connect request: '49432' <br>......closing the old socket in the left context. <br>......\SMPDU_Sock_get_sock_id <br>....../SMPDU_Sock_get_sock_id <br>......SMPDU_Sock_post_close(464) <br>......\SMPDU_Sock_post_close <br>.......\SMPDU_Sock_post_read <br>........\SMPDU_Sock_post_readv <br>......../SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_read <br>....../SMPDU_Sock_post_close <br>......connecting a new socket. <br>......\smpd_create_context <br>.......\smpd_init_context <br>........\smpd_init_command <br>......../smpd_init_command
 <br>......./smpd_init_context <br>....../smpd_create_context <br>......posting a re-connect to 192.168.1.5:49432 in left context. <br>......\SMPDU_Sock_post_connect <br>....../SMPDU_Sock_post_connect <br>...../smpd_state_reading_reconnect_request <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_CLOSE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_close <br>.....\smpd_get_state_string <br>...../smpd_get_state_string <br>.....op_close received - SMPD_CLOSING state. <br>.....Unaffiliated left context closing. <br>.....\smpd_free_context <br>......freeing left context. <br>......\smpd_init_context <br>.......\smpd_init_command <br>......./smpd_init_command <br>....../smpd_init_context <br>...../smpd_free_context <br>..../smpd_handle_op_close <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait
 <br>....SOCK_OP_CONNECT event.error = 0, result = 0, context=left <br>....\smpd_handle_op_connect <br>.....\smpd_generate_session_header <br>......session header: (id=1 parent=0 level=0) <br>...../smpd_generate_session_header <br>.....\SMPDU_Sock_post_write <br>......\SMPDU_Sock_post_writev <br>....../SMPDU_Sock_post_writev <br>...../SMPDU_Sock_post_write <br>..../smpd_handle_op_connect <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_state_writing_session_header <br>......wrote session header: 'id=1 parent=0 level=0' <br>......\smpd_post_read_command <br>.......\SMPDU_Sock_get_sock_id <br>......./SMPDU_Sock_get_sock_id <br>.......posting a read for a command header on the left context, sock 528 <br>.......\SMPDU_Sock_post_read <br>........\SMPDU_Sock_post_readv <br>......../SMPDU_Sock_post_readv
 <br>......./SMPDU_Sock_post_read <br>....../smpd_post_read_command <br>......creating connect command for left node <br>......creating connect command to '192.168.1.3' <br>......\smpd_create_command <br>.......\smpd_init_command <br>......./smpd_init_command <br>....../smpd_create_command <br>......\smpd_add_command_arg <br>....../smpd_add_command_arg <br>......\smpd_add_command_int_arg <br>....../smpd_add_command_int_arg <br>......\smpd_post_write_command <br>.......\smpd_package_command <br>......./smpd_package_command <br>.......\SMPDU_Sock_get_sock_id <br>......./SMPDU_Sock_get_sock_id <br>.......smpd_post_write_command on the left context sock 528: 67 bytes for command: "cmd=connect src=0 dest=1 tag=0 host=192.168.1.3 id=2 " <br>.......\SMPDU_Sock_post_writev <br>......./SMPDU_Sock_post_writev <br>....../smpd_post_write_command <br>......not connected yet: 192.168.1.3 not connected <br>...../smpd_state_writing_session_header
 <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_state_writing_cmd <br>......wrote command <br>......command written to left: "cmd=connect src=0 dest=1 tag=0 host=192.168.1.3 id=2 " <br>......moving 'connect' command to the wait_list. <br>...../smpd_state_writing_cmd <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_cmd_header <br>......read command header <br>......command header read, posting read for data: 71 bytes <br>......\SMPDU_Sock_post_read <br>.......\SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_read <br>...../smpd_state_reading_cmd_header
 <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_cmd <br>......read command <br>......\smpd_parse_command <br>....../smpd_parse_command <br>......read command: "cmd=abort src=1 dest=0 tag=0 error="Unable to connect to 192.168.1.3" " <br>......\smpd_handle_command <br>.......handling command: <br>....... src = 1 <br>....... dest = 0 <br>....... cmd = abort <br>....... tag = 0 <br>....... ctx = left <br>....... len = 71 <br>....... str = cmd=abort src=1 dest=0 tag=0 error="Unable to connect to 192.168.1.3" <br>.......\smpd_command_destination <br>........0 -&gt; 0 : returning NULL context <br>......./smpd_command_destination <br>.......\smpd_handle_abort_command <br>........abort: Unable to connect to 192.168.1.3 <br>......./smpd_handle_abort_command
 <br>....../smpd_handle_command <br>......\smpd_post_read_command <br>.......\SMPDU_Sock_get_sock_id <br>......./SMPDU_Sock_get_sock_id <br>.......posting a read for a command header on the left context, sock 528 <br>.......\SMPDU_Sock_post_read <br>........\SMPDU_Sock_post_readv <br>......../SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_read <br>....../smpd_post_read_command <br>......\smpd_create_command <br>.......\smpd_init_command <br>......./smpd_init_command <br>....../smpd_create_command <br>......\smpd_post_write_command <br>.......\smpd_package_command <br>......./smpd_package_command <br>.......\SMPDU_Sock_get_sock_id <br>......./SMPDU_Sock_get_sock_id <br>.......smpd_post_write_command on the left context sock 528: 43 bytes for command: "cmd=close src=0 dest=1 tag=1 " <br>.......\SMPDU_Sock_post_writev <br>......./SMPDU_Sock_post_writev <br>....../smpd_post_write_command <br>...../smpd_state_reading_cmd <br>..../smpd_handle_op_read
 <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_WRITE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_write <br>.....\smpd_state_writing_cmd <br>......wrote command <br>......command written to left: "cmd=close src=0 dest=1 tag=1 " <br>......\smpd_free_command <br>.......\smpd_init_command <br>......./smpd_init_command <br>....../smpd_free_command <br>...../smpd_state_writing_cmd <br>..../smpd_handle_op_write <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_cmd_header <br>......read command header <br>......command header read, posting read for data: 31 bytes <br>......\SMPDU_Sock_post_read <br>.......\SMPDU_Sock_post_readv <br>......./SMPDU_Sock_post_readv <br>....../SMPDU_Sock_post_read
 <br>...../smpd_state_reading_cmd_header <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_READ event.error = 0, result = 0, context=left <br>....\smpd_handle_op_read <br>.....\smpd_state_reading_cmd <br>......read command <br>......\smpd_parse_command <br>....../smpd_parse_command <br>......read command: "cmd=closed src=1 dest=0 tag=1 " <br>......\smpd_handle_command <br>.......handling command: <br>....... src = 1 <br>....... dest = 0 <br>....... cmd = closed <br>....... tag = 1 <br>....... ctx = left <br>....... len = 31 <br>....... str = cmd=closed src=1 dest=0 tag=1 <br>.......\smpd_command_destination <br>........0 -&gt; 0 : returning NULL context <br>......./smpd_command_destination <br>.......\smpd_handle_closed_command <br>........closed command received from left child, closing sock. <br>........\SMPDU_Sock_get_sock_id <br>......../SMPDU_Sock_get_sock_id
 <br>........SMPDU_Sock_post_close(528) <br>........\SMPDU_Sock_post_close <br>.........\SMPDU_Sock_post_read <br>..........\SMPDU_Sock_post_readv <br>........../SMPDU_Sock_post_readv <br>........./SMPDU_Sock_post_read <br>......../SMPDU_Sock_post_close <br>........received a closed at node with no parent context, assuming root, returning SMPD_EXITING. <br>......./smpd_handle_closed_command <br>....../smpd_handle_command <br>......not posting read for another command because SMPD_EXITING returned <br>...../smpd_state_reading_cmd <br>..../smpd_handle_op_read <br>....sock_waiting for the next event. <br>....\SMPDU_Sock_wait <br>..../SMPDU_Sock_wait <br>....SOCK_OP_CLOSE event.error = 0, result = 0, context=left <br>....\smpd_handle_op_close <br>.....\smpd_get_state_string <br>...../smpd_get_state_string <br>.....op_close received - SMPD_EXITING state. <br>.....\smpd_free_context <br>......freeing left context. <br>......\smpd_init_context
 <br>.......\smpd_init_command <br>......./smpd_init_command <br>....../smpd_init_context <br>...../smpd_free_context <br>..../smpd_handle_op_close <br>.../smpd_enter_at_state <br>...calling SMPDU_Sock_finalize <br>...\SMPDU_Sock_finalize <br>.../SMPDU_Sock_finalize <br>../main <br>..\smpd_exit <br>...\smpd_kill_all_processes <br>.../smpd_kill_all_processes <br>...\smpd_finalize_drive_maps <br>.../smpd_finalize_drive_maps <br><br><br><br><br><br></div></div></div><br>

      </body></html>