<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class=""><br>
</span>   Mark,<br>
<br>
   How can we insure that that the smoother is SPD? Which are known to be. In his case it was Richardson + SSOR on a bunch of processes.<br><div class=""><div class="h5"><br></div></div></blockquote><div><br></div><div>The problem is stability.  Richardson + SSOR is symmetric and stable for an SPD matrix (I think) but we do not have a global SSOR, so we really have Jacobi/SSOR.  The iteration matrix for the smoothers has spectral radius like || Ident  - omega D^{-1}A|| for damped (omega) Jacobi.  If A is an M-matrix 0 < || D^{-1}A ||_2 < 2 (barely) and so spectral radius of this iteration is less that 1.0 and it is stable (slow but stable).  So our Richardson + SSOR should not blow up on an M-matrix (provably) and works pretty well in practice, but even a 9-point stencil (2D) is not a M-matrix.</div><div><br></div><div>And I think it is hopeless to try to detect indefiniteness, instability in the "random" (often buggy) matrices that we get tossed to us.  Just too expensive to do anything reliable.  Symmetry is easy to test for, the largest eigenvalue is considered easy but can be tricky, as we have seen.  I'm not sure if there are any shortcuts if you just want to know if a symmetric matrix does not have negative eigenvalues? (I'm not optimistic). This is all you need but even the relatively easy high eigenvalue can be hard to make (reasonably) robust and even it has not proof.</div><div><br></div><div>Mark</div><div><br></div><div><br></div><div> </div></div></div></div>