<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Hi Karli,<br>
      <br>
      On 12/12/2013 02:50 PM, Karl Rupp wrote:<br>
    </div>
    <blockquote cite="mid:52AA2FA6.8080802@mcs.anl.gov" type="cite"><br>
      Hmm, this does not sound like something I would consider a good
      fit for GPUs. With 16 MPI processes you have additional congestion
      of the one or two GPUs per node, so you would have the rethink the
      solution procedure as a whole.<br>
      <br>
    </blockquote>
    Are you sure about that for Titan? Supposedly the K20X's can deal
    with multiple MPI processes hitting a single GPU pretty well using
    Hyper-Q. Paul has seen pretty good speed up with small GPU kernels
    simply by over-subscribing each GPU with 4 MPI processes.<br>
    <br>
    See here:<br>
    <meta http-equiv="content-type" content="text/html;
      charset=ISO-8859-1">
    <a
href="http://blogs.nvidia.com/blog/2012/08/23/unleash-legacy-mpi-codes-with-keplers-hyper-q/">http://blogs.nvidia.com/blog/2012/08/23/unleash-legacy-mpi-codes-with-keplers-hyper-q/</a><br>
    <br>
    <br>
    Cheers,<br>
    Dominic<br>
    <br>
    <br>
    <pre class="moz-signature" cols="72">-- 
Dominic Meiser
Tech-X Corporation
5621 Arapahoe Avenue
Boulder, CO 80303
USA
Telephone: 303-996-2036
Fax: 303-448-7756
<a class="moz-txt-link-abbreviated" href="http://www.txcorp.com">www.txcorp.com</a></pre>
  </body>
</html>