<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii">
<META NAME="Generator" CONTENT="MS Exchange Server version 6.5.7036.0">
<TITLE>RE: [mpich-discuss] mpich2 and IPoIB</TITLE>
</HEAD>
<BODY>
<!-- Converted from text/plain format -->

<P><FONT SIZE=2>&nbsp;Hi,<BR>
&nbsp; Can you try specifying hostnames and interface ipaddresses in your machinefile (also see the difference in the way interface ipaddr is specified) ?<BR>
<BR>
==========================================<BR>
Hostname_of_10_2_5_10 -ifhn 10.2.10.10<BR>
Hostname_of_10_2_5_11 -ifhn 10.2.10.11<BR>
==========================================<BR>
<BR>
Regards,<BR>
Jayesh<BR>
<BR>
-----Original Message-----<BR>
From: Fabio Kenji [<A HREF="mailto:kenji_japanese@ig.com.br">mailto:kenji_japanese@ig.com.br</A>]<BR>
Sent: Friday, October 31, 2008 6:39 AM<BR>
To: Jayesh Krishna<BR>
Cc: mpich-discuss@mcs.anl.gov<BR>
Subject: Re: [mpich-discuss] mpich2 and IPoIB<BR>
<BR>
Hi,<BR>
<BR>
Compiled the 1.0.8 with the following options:<BR>
./configure --enable-cxx --with-pm=smpd --prefix=&lt;path&gt; make &amp;&amp; make install<BR>
<BR>
to started the smpd using<BR>
&lt;path&gt;smpd -s<BR>
<BR>
to launch the program I'm using<BR>
&lt;path&gt;mpiexec -n 4 -machinefile mf &lt;program&gt;<BR>
<BR>
the mf file contains:<BR>
10.2.5.10 ifhn=10.2.10.10<BR>
10.2.5.11 ifhn=10.2.10.11<BR>
<BR>
where 10.2.5.xx is ethernet and 10.2.10.xx is infiniband<BR>
<BR>
and the communications are going through ethernet<BR>
<BR>
Fabio<BR>
<BR>
2008/10/30, Jayesh Krishna &lt;jayesh@mcs.anl.gov&gt;:<BR>
&gt;<BR>
&gt;<BR>
&gt;<BR>
&gt;&nbsp; Hi,<BR>
&gt;&nbsp;&nbsp;&nbsp; Can you try the latest stable release (1.0.8) of MPICH2 ?<BR>
&gt;&nbsp;&nbsp;&nbsp; I just tried entering a non-existant ipaddress in the machinefile using the &quot;-ifhn&quot; option and my program failed (expected failure). A quick look of the smpd debug output shows that smpd is setting the right (as per the &quot;-ifhn&quot; args) environment before launching the process.<BR>
&gt;&nbsp;&nbsp;&nbsp; Please let us know if MPICH2 1.0.8 + smpd + &quot;-ifhn&quot; option does not work for you.<BR>
&gt;<BR>
&gt;&nbsp; Regards,<BR>
&gt;&nbsp; Jayesh<BR>
&gt;<BR>
&gt;&nbsp; -----Original Message-----<BR>
&gt;&nbsp; From: Fabio Motezuki [<A HREF="mailto:kenji_japanese@ig.com.br">mailto:kenji_japanese@ig.com.br</A>]<BR>
&gt;&nbsp; Sent: Wednesday, October 29, 2008 8:36 PM<BR>
&gt;&nbsp; To: Jayesh Krishna<BR>
&gt;&nbsp; Cc: mpich-discuss@mcs.anl.gov<BR>
&gt;&nbsp; Subject: Re: [mpich-discuss] mpich2 and IPoIB<BR>
&gt;<BR>
&gt;&nbsp; Returning, I compiled de 1.0.8rc1 source and using mpd the ifhn in the mpd.hosts file worked well, but not with interface name resolution, just using ip directly.<BR>
&gt;<BR>
&gt;&nbsp; In 1.0.7 I tried to use ifhn in the machinefile for smpd execution, but no effect even when using the ip address of the infiniband interface.<BR>
&gt;<BR>
&gt;<BR>
&gt;&nbsp; Fabio<BR>
&gt;<BR>
&gt;<BR>
&gt;<BR>
&gt;&nbsp; Jayesh Krishna escreveu:<BR>
&gt;<BR>
&gt;&nbsp; &gt;<BR>
&gt;&nbsp; &gt;&nbsp; Hi,<BR>
&gt;&nbsp; &gt;&nbsp;&nbsp; Yes, you can use the &quot;-ifhn&quot; option in the machinefile with smpd.<BR>
&gt;&nbsp; &gt;&nbsp;&nbsp; Let us know if you have any problems.<BR>
&gt;&nbsp; &gt;<BR>
&gt;&nbsp; &gt; Regards,<BR>
&gt;&nbsp; &gt; Jayesh<BR>
&gt;&nbsp; &gt;<BR>
&gt;&nbsp; &gt; -----Original Message-----<BR>
&gt;&nbsp; &gt; From: owner-mpich-discuss@mcs.anl.gov&nbsp; &gt;<BR>
&gt; [<A HREF="mailto:owner-mpich-discuss@mcs.anl.gov">mailto:owner-mpich-discuss@mcs.anl.gov</A>] On Behalf Of Rajeev Thakur&nbsp; &gt;<BR>
&gt; Sent: Monday, October 27, 2008 2:22 PM&nbsp; &gt; To:<BR>
&gt; mpich-discuss@mcs.anl.gov&nbsp; &gt; Subject: RE: [mpich-discuss] mpich2 and<BR>
&gt; IPoIB&nbsp; &gt;&nbsp; &gt; Probably :-). From doing a grep in the smpd directory it<BR>
&gt; looks like it&nbsp; &gt; might accept &quot;-ifhn hostname&quot;<BR>
&gt;&nbsp; &gt;<BR>
&gt;&nbsp; &gt; Rajeev<BR>
&gt;&nbsp; &gt;<BR>
&gt;&nbsp; &gt; &gt; -----Original Message-----<BR>
&gt;&nbsp; &gt; &gt; From: owner-mpich-discuss@mcs.anl.gov&nbsp; &gt; &gt;<BR>
&gt; [<A HREF="mailto:owner-mpich-discuss@mcs.anl.gov">mailto:owner-mpich-discuss@mcs.anl.gov</A>] On Behalf Of Fabio Motezuki&nbsp;<BR>
&gt; &gt; &gt; Sent: Monday, October 27, 2008 2:12 PM&nbsp; &gt; &gt; To:<BR>
&gt; mpich-discuss@mcs.anl.gov&nbsp; &gt; &gt; Subject: Re: [mpich-discuss] mpich2 and<BR>
&gt; IPoIB&nbsp; &gt; &gt;&nbsp; &gt; &gt; Thanks Rajeev,&nbsp; &gt; &gt;&nbsp; &gt; &gt; I'll try it, perhaps is there<BR>
&gt; any options like this for smpd?<BR>
&gt;&nbsp; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; Fabio<BR>
&gt;&nbsp; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; Rajeev Thakur escreveu:<BR>
&gt;&nbsp; &gt; &gt; &gt; Try specifying the interface name using ifhn= in the&nbsp; &gt; &gt;<BR>
&gt; mpd.hosts file as&nbsp; &gt; &gt; &gt; described in Sec 5.1.5 of the installation<BR>
&gt; guide.<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; <A HREF="http://www.mcs.anl.gov/research/projects/mpich2/documentation/">http://www.mcs.anl.gov/research/projects/mpich2/documentation/</A><BR>
&gt;&nbsp; &gt; &gt; files/mpich2-1<BR>
&gt;&nbsp; &gt; &gt; &gt; .0.8-installguide.pdf<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; &gt; Rajeev<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; -----Original Message-----<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; From: owner-mpich-discuss@mcs.anl.gov&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt; [<A HREF="mailto:owner-mpich-discuss@mcs.anl.gov">mailto:owner-mpich-discuss@mcs.anl.gov</A>] On Behalf Of&nbsp; &gt; &gt; Fabio<BR>
&gt; Motezuki&nbsp; &gt; &gt; &gt;&gt; Sent: Monday, October 27, 2008 5:35 AM&nbsp; &gt; &gt; &gt;&gt; To:<BR>
&gt; mpich-discuss@mcs.anl.gov&nbsp; &gt; &gt; &gt;&gt; Subject: [mpich-discuss] mpich2 and<BR>
&gt; IPoIB&nbsp; &gt; &gt; &gt;&gt;&nbsp; &gt; &gt; &gt;&gt; Hi all,&nbsp; &gt; &gt; &gt;&gt;&nbsp; &gt; &gt; &gt;&gt; I'm working on a cluster<BR>
&gt; where each node is connected with two&nbsp; &gt; &gt; &gt;&gt; networks:<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; eth0 - gigabit ethernet<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; ib0 - IP over infiniband<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; I would like to use the ib0 net for all mpi communications,<BR>
&gt; but&nbsp; &gt; &gt; &gt;&gt; when I start the example cpi all comunications go through<BR>
&gt; eth0 is&nbsp; &gt; &gt; this the&nbsp; &gt; &gt; &gt;&gt; expected behavior?<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; I'm launching the example program with &quot;mpiexec&nbsp; &gt; &gt;<BR>
&gt; -machinefile mf -n 16&nbsp; &gt; &gt; &gt;&gt; ./cpi&quot; where the file &quot;mf&quot; contains the<BR>
&gt; ip address of infiniband&nbsp; &gt; &gt; &gt;&gt; cards.<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt; Fabio<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;&gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt;<BR>
&gt;&nbsp; &gt; &gt;<BR>
&gt;&nbsp; &gt;<BR>
&gt;<BR>
</FONT>
</P>

</BODY>
</HTML>