On Fri, Aug 27, 2010 at 7:19 PM, Keita Teranishi <span dir="ltr"><<a href="mailto:keita@cray.com">keita@cray.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Barry,<br>
<br>
Yes. It improves the performance dramatically, but the execution time for KSPSolve stays the same.<br>
<br>
MatMult 5.2 Gflops<br></blockquote><div><br></div><div>I will note that to put the matvec on the GPU you will also need -mat_type aijcuda.</div><div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

Thanks,<br>
<div class="im"><br>
================================<br>
 Keita Teranishi<br>
 Scientific Library Group<br>
 Cray, Inc.<br>
 <a href="mailto:keita@cray.com">keita@cray.com</a><br>
================================<br>
<br>
<br>
-----Original Message-----<br>
</div><div class="im">From: <a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a> [mailto:<a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a>] On Behalf Of Barry Smith<br>

Sent: Friday, August 27, 2010 2:15 PM<br>
To: For users of the development version of PETSc<br>
</div><div><div></div><div class="h5">Subject: [petsc-dev] [GPU] Performance on Fermi<br>
<br>
<br>
   PETSc-dev folks,<br>
<br>
      Please prepend all messages to petsc-dev that involve GPUs with [GPU] so they can be easily filtered.<br>
<br>
    Keita,<br>
<br>
      To run src/ksp/ksp/examples/tutorials/ex2.c with CUDA you need the flag -vec_type cuda<br>
<br>
      Note also that this example is fine for simple ONE processor tests but should not be used for parallel testing because it does not do a proper parallel partitioning for performance<br>
<br>
    Barry<br>
<br>
On Aug 27, 2010, at 2:04 PM, Keita Teranishi wrote:<br>
<br>
> Hi,<br>
><br>
> I ran ex2.c with a matrix from 512x512 grid.<br>
> I set CG and Jacobi for the solver and preconditioner.<br>
> GCC-4.4.4 and CUDA-3.1 are used to compile the code.<br>
> BLAS and LAPAKCK are not optimized.<br>
><br>
> MatMult<br>
> Fermi:                1142 MFlops<br>
> 1 core Istanbul:      420 MFlops<br>
><br>
> KSPSolve:<br>
> Fermi:                        1.5 Sec<br>
> 1 core Istanbul:      1.7 Sec<br>
><br>
><br>
> ================================<br>
>  Keita Teranishi<br>
>  Scientific Library Group<br>
>  Cray, Inc.<br>
>  <a href="mailto:keita@cray.com">keita@cray.com</a><br>
> ================================<br>
><br>
><br>
> -----Original Message-----<br>
> From: <a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a> [mailto:<a href="mailto:petsc-dev-bounces@mcs.anl.gov">petsc-dev-bounces@mcs.anl.gov</a>] On Behalf Of Satish Balay<br>
> Sent: Friday, August 27, 2010 1:49 PM<br>
> To: For users of the development version of PETSc<br>
> Subject: Re: [petsc-dev] Problem with petsc-dev<br>
><br>
> On Fri, 27 Aug 2010, Satish Balay wrote:<br>
><br>
>> There was a problem with tarball creation for the past few days. Will<br>
>> try to respin manually today - and update you.<br>
><br>
> the petsc-dev tarball is now updated on the website..<br>
><br>
> Satish<br>
<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>