On Wed, Mar 28, 2012 at 9:39 PM, Hong Zhang <span dir="ltr"><<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Matt:<br><div class="gmail_quote"><div class="im"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">to the new scalable MatMatMult() that is done in PETSc? Is it possible to even compare<div>

the flop rates sensibly?</div><div><br></div><div>  <a href="http://arxiv.org/abs/1203.1692" target="_blank">http://arxiv.org/abs/1203.1692</a></div></blockquote></div><div>"An Optimized Sparse Approximate Matrix Multiply"</div>

<div>computes  Approximate matrix product for matrices with decay</div><div>                   ^^^^^^^^^^^^                                               ^^^^^^^^^^</div><div>It is for special application in chemistry(?), </div>

<div>not applicable for general sparse matrix product.</div><div>No comparison can be drawn to petsc's C=A*B.</div></div></blockquote><div><br></div><div>This is the wrong conclusion. What he does is sparsify the result, so he is</div>
<div>computing SOME sort of sparse matrix-vector product. The question is:</div><div><br></div><div>   Does his SpMV use the same algorithm as PETSc?</div><div><br></div><div>That is why I asked.</div><div><br></div><div>
    Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="gmail_quote"><span class="HOEnZb"><font color="#888888"><div>Hong</div></font></span><div class="im">
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div><br></div><div>This is what Jeff is planning on using in his SciDAC.</div><div><br></div><div>      Matt<span><font color="#888888"><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>


-- Norbert Wiener<br>
</font></span></div>
</blockquote></div></div><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>