<div dir="ltr">Dave,<div><br><div>Why do you think threads are discouraged?  PETSc tends to not keep dead code around so if it is in the repo its "supported" with the caveat that resources are not infinite. <div><br></div></div><div>BTW, I am using threads with hypre and gamg on Titan.  Not sure it is helping yet but the solves (not setup) are fully threaded AFAIK.</div><div><br></div><div>Mark</div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 9, 2015 at 11:59 AM, Nystrom, William David <span dir="ltr"><<a href="mailto:wdn@lanl.gov" target="_blank">wdn@lanl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">So is there any schedule for the availability of the new PETSc thread model implementation?<br>
My understanding is that the current thread implementation in PETSc is not even supported<br>
by the PETSc Team and use of it is discouraged.  I'm interested in this capability for both<br>
Sequoia and Trinity and have been thinking about making a PETSc interface to one of the<br>
main LANL ASC codes.<br>
<br>
Dave<br>
<br>
--<br>
Dave Nystrom<br>
LANL HPC-5<br>
Phone: <a href="tel:505-667-7913" value="+15056677913">505-667-7913</a><br>
Email: <a href="mailto:wdn@lanl.gov">wdn@lanl.gov</a><br>
Smail: Mail Stop B272<br>
       Group HPC-5<br>
       Los Alamos National Laboratory<br>
       Los Alamos, NM 87545<br>
<br>
<br>
________________________________________<br>
From: <a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a> [<a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a>] on behalf of Jed Brown [<a href="mailto:jed@jedbrown.org">jed@jedbrown.org</a>]<br>
Sent: Friday, January 09, 2015 8:44 AM<br>
To: Mark Adams; Barry Smith<br>
Cc: For users of the development version of PETSc<br>
Subject: Re: [petsc-dev] PETSc and threads<br>
<div class="HOEnZb"><div class="h5"><br>
Mark Adams <<a href="mailto:mfadams@lbl.gov">mfadams@lbl.gov</a>> writes:<br>
> No this is me.  They will probably have about 30K (2D linear FE) equations<br>
> per 40 Tflop node.  10% (4 Tflops) is too much resources for 30K equations<br>
> as it is.  No need to try utilize the GPU as far as I can see.<br>
<br>
With multiple POWER9 sockets per node, you have to deal with NUMA and<br>
separate caches.  The rest of the application is not going to do this<br>
with threads, so you'll have multiple MPI processes anyway.  The entire<br>
problem will fit readily in L2 cache and you have a latency problem on<br>
the CPU alone.  Ask them to make neighborhood collectives fast.<br>
</div></div></blockquote></div><br></div>