<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr">On Mon, Jul 9, 2018 at 7:19 PM Jeff Hammond <<a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Jul 9, 2018 at 7:38 AM, Mark Adams <span dir="ltr"><<a href="mailto:mfadams@lbl.gov" target="_blank">mfadams@lbl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>I agree with Matt's comment and let me add (somewhat redundantly)</div><br><div class="gmail_quote"><span><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><br></div><div>This isn't how you'd write MPI, is it?  No, you'd figure out how to decompose your data properly to exploit locality and then implement an algorithm that minimizes communication and synchronization.  Do that with OpenMP.</div></div></div></div></blockquote><div><br></div></span><div>I have never seen a DOE app that does this correct, get you data model figured out first, then implement. </div></div></div></blockquote><div><br></div><div>Chris Kerr's weather code (GFDL Hiram) has a single OpenMP parallel region.  He was at the last NERSC workshop I attended.  You should talk to him.</div><div><br></div></div></div></div></blockquote><div><br></div><div>He is the last person I need to talk to :) but I wish my fusion colleagues had walked down the road and talked with him 10 years ago.</div><div><br></div><div> </div></div></div>