Hi Hong, <br>    Thanks for your feedback.<br><br>Dave<br><br><div class="gmail_quote">On Wed, Mar 5, 2008 at 5:08 AM, Hong Zhang <<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>
Dave,<br>
<div class="Ih2E3d"><br>
>    I would like to inquire whether there are plans to add some MatMatXXX<br>
> support (in particular MatPtAP) for the MATSBAIJ types in the next version<br>
> of petsc?<br>
<br>
</div>No, we do not have plan. It is more than few hours work to write<br>
MatPtAP_SBAIJ(), parallel version requires much more time.<br>
<div class="Ih2E3d"><br>
><br>
> The code used in our group combines the FEM with a PIC scheme. The addition<br>
> of the particles increase the memory usage significantly, thus we could<br>
> really benefit from the memory saved by only storing the upper triangular<br>
> part of our global stiffness matrix. The FEM part of the code utilizes<br>
> multigrid with Galerkin coarse grid operators constructed via MatPtAP.<br>
<br>
</div>Although SBAIJ matrix saves half memory of SPARSE matrices,<br>
you pay price for data accessing and complecated data communication.<br>
You may use petsc aij matrix with all the functional support, but<br>
call symmetric solvers/preconditioners, e.g., cholesky or icc<br>
which save half of memory for factored matrices (would be significant<br>
in many cases).<br>
<font color="#888888"><br>
Hong<br>
<br>
</font></blockquote></div><br>