2011/10/28 Matthew Knepley <span dir="ltr">&lt;<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>&gt;</span><br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">




<div>On Fri, Oct 28, 2011 at 10:24 AM, Fredrik Heffer Valdmanis <span dir="ltr">&lt;<a href="mailto:fredva@ifi.uio.no" target="_blank">fredva@ifi.uio.no</a>&gt;</span> wrote:<br></div><div class="gmail_quote"><div>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<div><br></div><div>I am working on integrating the new GPU based vectors and matrices into FEniCS. Now, I&#39;m looking at the possibility for getting some speedup during finite element assembly, specifically when inserting the local element matrix into the global element matrix. In that regard, I have a few questions I hope you can help me out with:</div>









<div><br></div><div>- When calling MatSetValues with a MATSEQAIJCUSP matrix as parameter, what exactly is it that happens? As far as I can see, MatSetValues is not implemented for GPU based matrices, neither is the mat-&gt;ops-&gt;setvalues set to point at any function for this Mat type. </div>





</blockquote><div><br></div></div><div>Yes, MatSetValues always operates on the CPU side. It would not make sense to do individual operations on the GPU.</div><div><br></div><div>I have written batched of assembly for element matrices that are all the same size:</div>





<div><br></div><div>  <a href="http://www.mcs.anl.gov/petsc/petsc-as/snapshots/petsc-current/docs/manualpages/Mat/MatSetValuesBatch.html" target="_blank">http://www.mcs.anl.gov/petsc/petsc-as/snapshots/petsc-current/docs/manualpages/Mat/MatSetValuesBatch.html</a></div>




<div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>- Is it such that matrices are assembled in their entirety on the CPU, and then copied over to the GPU (after calling MatAssemblyBegin)? Or are values copied over to the GPU each time you call MatSetValues?</div>





</blockquote><div><br></div></div><div>That function assembles the matrix on the GPU and then copies to the CPU. The only time you do not want this copy is when</div><div>you are running in serial and never touch the matrix afterwards, so I left it in.</div>




<div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>- Can we expect to see any speedup from using MatSetValuesBatch over MatSetValues, or is the batch version simply a utility function? This question goes for both CPU- and GPU-based matrices.</div>





</blockquote><div><br></div></div><div>CPU: no</div><div><br></div><div>GPU: yes, I see about the memory bandwidth ratio</div><div><br></div><div><br></div></div></blockquote><div>Hi,</div><div><br></div><div>I have now integrated MatSetValuesBatch in our existing PETSc wrapper layer. I have tested matrix assembly with Poisson&#39;s equation on different meshes with elements of varying order. I have timed the single call to MatSetValuesBatch and compared that to the total time consumed by the repeated calls to MatSetValues in the old implementation. I have the following results:</div>




<div><br></div><div>Poisson on 1000x1000 unit square, 1st order Lagrange elements:</div><div><div><div>MatSetValuesBatch: 0.88576 s</div><div>repeated calls to MatSetValues: 0.76654 s</div></div></div><div><br></div><div>

<div>Poisson on 500x500 unit square, 2nd order Lagrange elements:</div>

<div>MatSetValuesBatch: 0.9324 s</div><div>repeated calls to MatSetValues: 0.81644 s</div></div><div><br></div><div>Poisson on 300x300 unit square, 3rd order Lagrange elements:</div><div>MatSetValuesBatch: 0.93988 s</div>

<div>repeated calls to MatSetValues: 1.03884 s</div>

<div><br></div><div>As you can see, the two methods take almost the same amount of time. What behavior and performance should we expect? Is there any way to optimize the performance of batched assembly?</div><div><br></div>

<div><br></div>
<div>I also have a problem with Thrust throwing std::bad_alloc on some calls to MatSetValuesBatch. The exception originates in thrust::device_ptr&lt;void&gt; thrust::detail::device::cuda::malloc&lt;0u&gt;(unsigned long). It seems to be thrown when the number of double values I send to MatSetValuesBatch approaches 30 million. I am testing this on a laptop with 4 GB RAM and a GeForce 540 M (1 GB memory), so the 30 million doubles are far away from exhausting my memory, both on the host and device side. Any clues on what causes this problem and how to avoid it?</div>

<div><br></div><div>Thanks,</div><div><br></div><div>Fredrik</div><div><br></div>
</div>