On Fri, Sep 16, 2011 at 5:02 PM, Jed Brown <span dir="ltr"><<a href="mailto:jedbrown@mcs.anl.gov">jedbrown@mcs.anl.gov</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div class="im"><div class="gmail_quote">On Fri, Sep 16, 2011 at 23:54, Matthew Knepley <span dir="ltr"><<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div><div>On Fri, Sep 16, 2011 at 4:38 PM, Jed Brown <span dir="ltr"><<a href="mailto:jedbrown@mcs.anl.gov" target="_blank">jedbrown@mcs.anl.gov</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<div><div class="gmail_quote">On Fri, Sep 16, 2011 at 23:21, Matthew Knepley <span dir="ltr"><<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">it still converges, conditionally to the same solution as exact<br>
newton. Variations for A yield different rates of convergence. When<br>
A=1, you get the classical Picard iteration that Matt mentioned (?).<br></blockquote><div><br></div></div><div>Not even close.</div></blockquote></div><div><br></div></div>From Barry's description at the top of this thread:<div>



<br><div> x^{n+1}   = x^{n}  - lambda F(x^{n})</div></div><div><br></div><div><br></div><div>This looks oddly similar to</div><div><br></div><div> x^{n+1}   = x^{n}  - J(x^n)^{-1} F(x^{n})</div><div><br></div><div>I wonder where I've seen that before.</div>



</blockquote></div><br></div></div>So you are saying that you agree with me, what is coded is in fact the Picard iteration, and we are done arguing?</blockquote></div><br></div><div>I was objecting to your "not even close". I agree with Vijay's terminology.</div>

<div><br></div><div>I agree that your choice is _a_ Picard iteration, I do not agree that it is the One True Picard iteration. In particular, it is not the one that is most commonly used in practice (e.g. SISC or JCP publications).</div>

<div><br></div><div>Since Newton is also a fixed point iteration, I do not think the name "Picard" is a useful way to distinguish. Furthermore, since "Picard with solve" as you like to call it can easily be formulated in defect-correction mode as a Newton-like update with a different "Jacobian", it doesn't require any special support from PETSc.</div>

</blockquote></div><br>So, you can accomodate your "Picard" iteration as Newton, but we cannot accomodate the Picard iteration for<div>a system of nonlinear equations with that. So I made a class, named Picard, to accomodate it. Are you really</div>
<div>still arguing about this?</div><div><br></div><div>   Matt<br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>
</div>