agreed, i meant for openMP and shared memory architectures<br><br><div class="gmail_quote">On Mon, Jul 9, 2012 at 7:45 PM, Jeff Hammond <span dir="ltr"><<a href="mailto:jhammond@alcf.anl.gov" target="_blank">jhammond@alcf.anl.gov</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">hyperthreading is almost universally terrible for HPC.  it's disabled<br>
in every supercomputer i've ever used.<br>
<br>
very few codes are sufficiently threaded for MPI+OpenMP to pay off<br>
except when they are memory- or bandwidth-limited.  otherwise Amdahl's<br>
Law prevails and process-based parallelism wins.<br>
<br>
jeff<br>
<div class="HOEnZb"><div class="h5"><br>
On Mon, Jul 9, 2012 at 8:22 PM, Ricardo Román Brenes<br>
<<a href="mailto:roman.ricardo@gmail.com">roman.ricardo@gmail.com</a>> wrote:<br>
> according to my reserches, it all depends on your network and processor<br>
> type. If u got a fast network, really fast not 1GB ethernet... you can<br>
> "sacrifice" the transfer time. If you got a processor with hyperthreading<br>
> its possible that ur threads run faster<br>
><br>
> On Mon, Jul 9, 2012 at 6:37 PM, Pavan Balaji <<a href="mailto:balaji@mcs.anl.gov">balaji@mcs.anl.gov</a>> wrote:<br>
>><br>
>><br>
>> On 05/26/2012 06:43 PM, angelo pascualetti wrote:<br>
>>><br>
>>> How many processes (-np) should tell mpich to be faster than openmp?<br>
>><br>
>><br>
>> There's no way we can answer this question.  Depending on the application,<br>
>> either MPI-only or MPI+OpenMP can be faster.  MPICH supports both models, so<br>
>> you can experiment with them.<br>
>><br>
>>  -- Pavan<br>
>><br>
>> --<br>
>> Pavan Balaji<br>
>> <a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
>> _______________________________________________<br>
>> mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
>> To manage subscription options or unsubscribe:<br>
>> <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
><br>
><br>
><br>
> _______________________________________________<br>
> mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
><br>
<br>
<br>
<br>
</div></div><span class="HOEnZb"><font color="#888888">--<br>
Jeff Hammond<br>
Argonne Leadership Computing Facility<br>
University of Chicago Computation Institute<br>
<a href="mailto:jhammond@alcf.anl.gov">jhammond@alcf.anl.gov</a> / <a href="tel:%28630%29%20252-5381" value="+16302525381">(630) 252-5381</a><br>
<a href="http://www.linkedin.com/in/jeffhammond" target="_blank">http://www.linkedin.com/in/jeffhammond</a><br>
<a href="https://wiki.alcf.anl.gov/parts/index.php/User:Jhammond" target="_blank">https://wiki.alcf.anl.gov/parts/index.php/User:Jhammond</a><br>
</font></span><div class="HOEnZb"><div class="h5">_______________________________________________<br>
mpich-discuss mailing list     <a href="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss" target="_blank">https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</a><br>
</div></div></blockquote></div><br>