On Sun, Nov 6, 2011 at 5:52 PM, Dominik Szczerba <span dir="ltr">&lt;<a href="mailto:dominik@itis.ethz.ch">dominik@itis.ethz.ch</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
&gt;&gt;&gt; I want to start small by porting a very simple code using fixed point<br>
&gt;&gt;&gt; iterations as follows: A(x)x = b(x) is approximated as A(x0)x = b(x0),<br>
&gt;&gt;&gt; then solved by KSP for x, then x0 is updated to x, then repeat until<br>
&gt;&gt;&gt; convergence.<br>
&gt;<br>
&gt; Run the usual &quot;Newton&quot; methods with A(x) in place of the true Jacobian.<br>
<br>
When I substitute A(x) into eq. 5.2 I get:<br>
<br>
A(x) dx = -F(x) (1)<br>
A(x) dx = -A(x) x + b(x) (2)<br>
A(x) dx + A(x) x = b(x) (3)<br>
A(x) (x+dx) = b(x) (4)<br>
<br>
My questions:<br>
<br>
* Will the procedure somehow optimally group the two A(x) terms into<br>
one, as in 3-4? This requires knowledge, will this be efficiently<br>
handled?<br></blockquote><div><br></div><div>There is no grouping. You solve for dx and do a vector addition.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

* I am solving for x+dx, while eq. 5.3 solves for dx. Is this, and<br>
how, correctly handled? Should I somehow disable the update myself?<br></blockquote><div><br></div><div>Do not do any update yourself, just give the correct A at each iteration in</div><div>your FormJacobian routine.</div>
<div><br></div><div>   Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Thanks a lot,<br>
Dominik<br>
<br>
&gt; can compute A(x) in the residual<br>
&gt; F(x) = A(x) x - b(x)<br>
&gt; and cache it in your user context, then pass it back when asked to compute<br>
&gt; the Jacobian.<br>
&gt; This runs your algorithm (often called Picard) in &quot;defect correction mode&quot;,<br>
&gt; but once you write your equations this way, you can try Newton iteration<br>
&gt; using -snes_mf_operator.<br>
&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; In the documentation chapter 5 I see all sorts of sophisticated Newton<br>
&gt;&gt;&gt; type methods, requiring computation of the Jacobian. Is the above<br>
&gt;&gt;&gt; defined simple method still accessible somehow in Petsc or such<br>
&gt;&gt;&gt; triviality can only be done by hand? Which one from the existing<br>
&gt;&gt;&gt; nonlinear solvers would be a closest match both in simplicity and<br>
&gt;&gt;&gt; robustness (even if slow performance)?<br>
&gt;&gt;<br>
&gt;&gt; You want -snes_type nrichardson. All you need is to define the residual.<br>
&gt;<br>
&gt; Matt, were the 1000 emails we exchanged over this last month not enough to<br>
&gt; prevent you from spreading misinformation under a different name?<br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>