<div dir="ltr">Hi and thanks for the quick answer,<div><br></div><div>Yes it looks i am using MPICH for my configure instead of using the system installation of OpenMPI, in the past i had better experience using MPICH but maybe this will be a conflict, should i reconfigure using the system MPI installation?</div><div><br></div><div>I solved the problem in a different way by login into the nodes i wanted to use and doing the make streams tests there, but i get the following:</div><div><br></div><div><div>np  speedup</div><div>1 1.0</div><div>2 1.51</div><div>3 2.17</div><div>4 2.66</div><div>5 2.87</div><div>6 3.06</div><div>7 3.44</div><div>8 3.84</div><div>9 3.81</div><div>10 3.17</div><div>11 3.69</div><div>12 3.81</div><div>13 3.26</div><div>14 3.51</div><div>15 3.61</div><div>16 3.81</div><div>17 3.8</div><div>18 3.64</div><div>19 3.48</div><div>20 4.01</div></div><div><br></div><div>So very modest scaling, this is about the same i get with my application, how can i make it work faster? i am already using --map-by and --machinefile arguments for mpirun, maybe this is also a conflict with the different MPI installations?</div><div><br></div><div>Thanks,</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Apr 25, 2018 at 11:51 AM, Karl Rupp <span dir="ltr"><<a href="mailto:rupp@iue.tuwien.ac.at" target="_blank">rupp@iue.tuwien.ac.at</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Manuel,<br>
<br>
this looks like the wrong MPI gets used. You should see an increasing number of processes, e.g.<span class=""><br>
<br>
Number of MPI processes 1 Processor names  node37<br></span>
Triad:         6052.3571   Rate (MB/s)<br>
Number of MPI processes 2 Processor names  node37 node37<br>
Triad:        9138.9376   Rate (MB/s)<br>
Number of MPI processes 3 Processor names  node37 node37 node37<br>
Triad:        11077.5905   Rate (MB/s)<br>
Number of MPI processes 4 Processor names  node37 node37 node37 node37<br>
Triad:        12055.9123   Rate (MB/s)<br>
<br>
Best regards,<br>
Karli<div class="HOEnZb"><div class="h5"><br>
<br>
<br>
<br>
On 04/25/2018 08:26 PM, Manuel Valera wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
I'm running scaling tests on my system to check why my scaling is so poor, and after following the MPIVersion guidelines my scaling.log output looks like this:<br>
<br>
Number of MPI processes 1 Processor names  node37<br>
Triad:        12856.9252   Rate (MB/s)<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Triad:         9138.3320   Rate (MB/s)<br>
Triad:         9945.0006   Rate (MB/s)<br>
Triad:        10480.8471   Rate (MB/s)<br>
Triad:        12055.4846   Rate (MB/s)<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Triad:         7394.1014   Rate (MB/s)<br>
Triad:         5528.9757   Rate (MB/s)<br>
Triad:         6052.7506   Rate (MB/s)<br>
Triad:         6188.5710   Rate (MB/s)<br>
Triad:         6944.4515   Rate (MB/s)<br>
Triad:         7407.1594   Rate (MB/s)<br>
Triad:         9508.1984   Rate (MB/s)<br>
Triad:        10699.7551   Rate (MB/s)<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Number of MPI processes 1 Processor names  node37<br>
Triad:         6682.3749   Rate (MB/s)<br>
Triad:         6825.3243   Rate (MB/s)<br>
Triad:         7217.8178   Rate (MB/s)<br>
Triad:         7525.1025   Rate (MB/s)<br>
Triad:         7882.1781   Rate (MB/s)<br>
Triad:         8071.1430   Rate (MB/s)<br>
Triad:        10341.9424   Rate (MB/s)<br>
Triad:        10418.4740   Rate (MB/s)<br>
<br>
<br>
Is this normal? i feel is different from what i get from an usual streams test, how can i get it to work properly?<br>
<br>
Thanks,<br>
<br>
<br>
<br>
<br>
</blockquote>
</div></div></blockquote></div><br></div>