<div dir="ltr">On Sun, Mar 3, 2013 at 5:15 PM, Jed Brown <span dir="ltr"><<a href="mailto:jedbrown@mcs.anl.gov" target="_blank">jedbrown@mcs.anl.gov</a>></span> wrote:<br><div class="gmail_extra"><div class="gmail_quote">
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">This paper acknowledges the MG terminology and includes some numerical examples.<br><br><a href="http://dx.doi.org/10.1007/s10915-009-9272-6" target="_blank">http://dx.doi.org/10.1007/s10915-009-9272-6</a><div>
<br></div><div>
Unfortunately, they only solve heterogenous Poisson, for which all the deflation algorithms look like crude hacks next to MG (which they don't show results for).</div><div><br></div><div>Note that in this paper, all the methods use the coarse operator E = Z^T A Z where A is the original operator, not a preconditioned operator. That makes these deflation methods merely V(0,1) or V(1,0) cycles. In particular, I don't see anything with a coarse operator E = Z^T (M^{-1/2} A M^{-1/2}) Z or E = W^T (M^{-1} A) W. If this is indeed true, then I think it's clear that deflation is something that should be implemented as a PC, perhaps with Z updated by KSP (if we intend to iteratively compute approximate low eigenvectors).</div>
</div></blockquote><div><br></div><div style>Form the explanation in this paper, as far as I understand it, deflation is just used to augment the Krylov space,</div><div style>so why not just use LGMRES, sticking in your approximations to the eigenspace?</div>
<div style><br></div><div style>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div class="im"><div class="gmail_extra"><div class="gmail_quote">
On Sun, Mar 3, 2013 at 12:52 AM, Jie Chen <span dir="ltr"><<a href="mailto:jiechen@mcs.anl.gov" target="_blank">jiechen@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Barry,<br>
<br>
Putting P_{A} either to the left or to the right of A means the same thing: we avoid touching the subspace spanned by W. This is why the orthogonality condition b-Ax_0 \perp W is needed. What the condition says is that the initial residual should have no components on W, presumably the troublesome part of A. Then in a Krylov method, all later residuals have no components on W. In other words, the part of the solution on the subspace W is already fully computed even in the 0-th step. Getting such an x_0 is not difficult; the difficult part is to define/compute W.<br>


<br>
When one adds another preconditioner M to the system, presumably W should be the troublesome part of AM instead of A (I am always confused about the notation M and M^{-1} but it does not affect my reasoning here). In the aggressive way W can consist of eigenvectors of the pencil (A,M) corresponding to the smallest eigenvalues in magnitude. On the other hand, if one already found a good W for A and he/she is lazy and does not want to re-figuring out W, then just use the old W. I guess the beauty of the deflation theory is that W can be arbitrary but does not depend on A or M.<br>


<br>
I sense that you want a preconditioner appearing in (4) and the formula for x_0? I will add something there later.<br></blockquote><div><br></div><div><br></div></div></div></div></div></div>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener
</div></div>