Note, I wanted to use this for a Petsc code  that uses GPUs but not through at <font size="2"><span style="background-color:rgba(255,255,255,0)">Petsc</span></font>.<div><br></div><div>So my case is a little odd and I did not expect support but I just wanted to check.<br><br>On Wednesday, July 27, 2016, Karl Rupp <<a href="mailto:rupp@iue.tuwien.ac.at">rupp@iue.tuwien.ac.at</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
   We (meanings someone) should add logging of GPU allocations separately.<br>
</blockquote>
<br>
Agreed. I'll do it (though not immediately, as there are other things with higher priority to make GPU support in PETSc more useful)<br>
<br>
Best regards,<br>
Karli<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
On Jul 27, 2016, at 1:41 PM, Matthew Knepley <<a>knepley@gmail.com</a>> wrote:<br>
<br>
No, although since we mirror storage you could get an idea if you broke out the GPU vecs into a separate stage.<br>
<br>
    Matt<br>
<br>
On Wed, Jul 27, 2016 at 9:05 AM, Mark Adams <<a>mfadams@lbl.gov</a>> wrote:<br>
Would/could PETSc memory usage methods (PetscMemoryGetMaximumUsage) pick up GPU memory usage?<br>
<br>
<br>
<br>
<br>
--<br>
What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>
</blockquote>
<br>
</blockquote>
<br>
</blockquote></div>