<br><div class="gmail_quote">On Fri, Feb 10, 2012 at 10:11 AM, Paul Mullowney <span dir="ltr"><<a href="mailto:paulm@txcorp.com">paulm@txcorp.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Congrats! Given that I have a DoE phase II to continue Petsc GPU development, we should probably all get on the same page.<br>
<br>
If you're looking to do multi-GPU computing, I've already effectively redesigned the MatMult to get very good strong scaling and some excellent performance.<br>
I have some matrices getting 40+ GFlops on 4 GPUs. 20 GFlops on 2 GPUs, ...</blockquote><div><br></div><div>Great. Can you check in a benchmark code to src/benchmarks so that I can run it and reproduce these results? It would</div>
<div>be great to start this sort of thing to make papers easier. I can help with any problems doing that.</div><div><br></div><div>I will look over the code so I get a better idea what is happening.</div><div><br></div><div>
  Thanks,</div><div><br></div><div>     Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="HOEnZb"><font color="#888888"><br>
-Paul</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Pramod (who did the work) was my student at EPCC last year. We looked at porting Fluidity (or bits of it) to GPU and as a result decided that working on PETSc's GPU support was going to be the most promising angle for the time we had available. We have never got round to benchmarking Fluidity with Pramod's extended sparse matrix format support, but it shouldn't be too much effort.<br>

<br>
If you have any questions about it all, feel free to ask.<br>
<br>
cheers,<br>
Michele<br>
On 10 Feb 2012, at 15:57, Matthew Knepley wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Has anyone taken a look at this:<br>
<br>
   <a href="http://www.epcc.ed.ac.uk/wp-content/uploads/2011/11/PramodKumbhar.pdf" target="_blank">http://www.epcc.ed.ac.uk/wp-<u></u>content/uploads/2011/11/<u></u>PramodKumbhar.pdf</a><br>
<br>
It is the Fluidity people I think. I have just gotten an NSF award with Dan Negrut<br>
in Wisconsin and Ahmed Sameh at Purdue to port Ahmed's SPIKE preconditioner<br>
(you may have heard Olaf Schenk talk about this) to PETSc, and in particular to<br>
PETSc's GPU backend so that Dan can run it on his GPU cluster. Thus, we will<br>
be seriously stressing this feature in the near future.<br>
<br>
     Matt<br>
<br>
-- <br>
What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>
</blockquote></blockquote>
<br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>