<div class="gmail_quote">On Thu, Dec 29, 2011 at 11:01, Dave Nystrom <span dir="ltr"><<a href="mailto:dnystrom1@comcast.net">dnystrom1@comcast.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div id=":5db">I have recently added the capability to have a separate preconditioning<br>
matrix in the petsc interface for the code I am working with.  I have two<br>
types of preconditioning matrices that I have questions about.  One is<br>
tridiagonal and the other is 7 diagonals.  In both cases, the the diagonals<br>
are all lexically adjacent.  Or phrased differently, the tridiagonal matrix<br>
has a bandwidth of 3 and the 7 diagonal matrix has a bandwidth of 7 and so<br>
they are compact or dense band systems.<br>
<br>
I was wondering what petsc ilu will do for preconditioning matrices like<br>
these.  Will it produce an exact lu factorization or a nearly exact<br>
factorization?</div></blockquote><div><br></div><div>Yes</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div id=":5db">  I'm interested in the answer to this question because I am<br>

thinking I might be able to run this preconditioner on the gpu using the<br>
txpetscgpu package.</div></blockquote></div><br><div>Likely pointless because this solve is probably not a big part of run-time. The bigger concern is the convergence rate that you lose by using this approximation. Matt and I mentioned this the last time you brought it up, but I recommend getting familiar with the literature. Then, get the math straight before looking for ways to transform into problems that you can run fast on a GPU or whatever. If you just optimize kernels, you're likely to optimize something that takes a small part of run-time and isn't really helping you anyway.</div>