<div dir="ltr">So where are we as far as timers? <div>See the latest examples (with 160 CHARACTER)</div><div>Jed, "(I don't trust these timings)." what do you think?</div><div><br></div><div>No sense in doing an MR if it is still nonsense.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jan 22, 2022 at 12:16 PM Jed Brown <<a href="mailto:jed@jedbrown.org">jed@jedbrown.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Mark Adams <<a href="mailto:mfadams@lbl.gov" target="_blank">mfadams@lbl.gov</a>> writes:<br>
<br>
> as far as streams, does it know to run on the GPU? You don't specify<br>
> something like -G 1 here for GPUs. I think you just get them all.<br>
<br>
No, this isn't GPU code. BabelStream is a common STREAM suite for different programming models, though I think it doesn't support MPI with GPUs and thus isn't really useful. The code is pretty vanilla. <br>
<br>
<a href="https://github.com/UoB-HPC/BabelStream" rel="noreferrer" target="_blank">https://github.com/UoB-HPC/BabelStream</a><br>
<br>
It's very similar to "nstream" in Jeff's PRK<br>
<br>
<a href="https://github.com/ParRes/Kernels" rel="noreferrer" target="_blank">https://github.com/ParRes/Kernels</a><br>
<br>
Code is vanilla so I'd expect the results to be much like the corresponding Vec operations.<br>
<br>
Barry, when you did the tech reports, did you make an example to reproduce on other architectures? Like, run this one example (it'll run all the benchmarks across different sizes) and then run this script on the output to make all the figures?<br>
</blockquote></div>