<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:times new roman,new york,times,serif;font-size:10pt">Dear MPICH users/gurus<br>I have got basic questions regarding MPICH with regards to SMP clusters using multiple GigE interfaces. Forgive me for asking such basic questions as I am more familiar with OpenMPI. Also forgive me if there was any such post, as google was not being my good friend.<br><br>Basically what I want to ask is; if I have&nbsp; two quard core machines and each machine has 4 GigE interfaces, what should I do to use all 4 GigE interfaces. Is channel bonding (a.k.a Link aggregration) the only option? Or can I do with by setting up the routing tables?&nbsp; What method is more optimal/prefered.<br>My requirement is that if I run a program with 8 processes, I want each process to use a distinct CPU and distinct interface. Also, once the processes are communicating within the machine
 they should use Shared memory infrastructure.<br><br>In case of OpenMPI,&nbsp; I only have to specify a hostfile with slots and ask the btl to use all four (or whatever) interfaces. OMPI is able to route the packets accordingly using mix of SM and TCP BTLs.<br><br>I am using MPICH 1.0.7. <br><div>&nbsp;</div>Best Regards,<br>Muhammad Atif<div><br></div></div><br>

      </body></html>