Hello:<div><br></div><div><a href="http://1.as">1.as</a> far as i know you can define the numbre of processes u can launch in each node in the node file maybe with that ucan specify what kind of "work balance" you want.</div>

<div>2.that would be in the code with the rank of each process. ALso you can specify the master cluster node with, say 1 processes.That would leave the rest to the OS.</div><div><br></div><div>ALso remember that not every parallel program scalates linearly, (most dont =) )</div>

<div><br><div class="gmail_quote">On Fri, Jul 6, 2012 at 10:28 AM, Sarika K <span dir="ltr"><<a href="mailto:sarikauniv@gmail.com" target="_blank">sarikauniv@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Dear MPICH discussion group:<br><br>I am running a parallel code with mpich2-1.4.1p1 that uses Master/Slave MPI implementation and was originally set up 
for a cluster of single core nodes controlled by a head node. <br><br>The code also works well with a single node multiple cores set up. <br><br>
Now I am testing this code on multiple nodes each with multiple cores. 
The nodes are set up for password less login via ssh. The run hangs 
sometimes and takes longer to complete. (The run with single node 12 
cores is faster than the corresponding run using  2 nodes each with 12 
cores (total 24)).<br>
<br>I am trying to resolve this issue and wondering if you have any feedback on:<br>1. Does Master/Slave MPI implementation need any specific settings to work across multiple node/multiple core machine set up?<br>2. Is there any way to explicitly specify a core as a master with mpich2 and exclude it from computations?<br>



<br>I would greatly appreciate any other pointers/suggestions to fix this issue.<br><br>Thanks,<br>Sarika<br><br><br>
<br>_______________________________________________<br>
mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
<br></blockquote></div><br></div>