<div dir="ltr"><div dir="ltr"><br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div class="gmail_quote"><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div>So you could reorder your equations and see a block diagonal matrix with 576 blocks. right?</div></div></div></blockquote><div><br></div><div>I not sure I understand the question correctly. For each mesh vertex, we have a 576x576 diagonal matrix.   The unknowns are ordered in this way:  v0, v2.., v575 for vertex 1, and another 576 variables for mesh vertex 2, and so on.</div></div></div></div></div></blockquote><div><br></div><div>My question is,mathematically, or algebraically, is this preconditioner equivalent to 576 Laplacian PCs? I see that it is not because you coarsen the number of variables per node. So your interpolation operators couple your equations. I think that other than the coupling from eigen estimates and Krylov methods, and the coupling from your variable coursening that you have independent scalar Laplacian PCs. </div><div><br></div><div>10 levels is a lot. I am guessing you do like 5 levels of variable coarsening and 5 levels of (normal) vertex coarsening with some sort of AMG method.</div><div><br></div><div>This is a very different regime that problems that I am used to.</div><div><br></div><div>And it would still be interesting to see the flop counters to get a sense of the underlying performance differences between the normal and the all-at-once PtAp.</div><div><br></div><div><br></div><div><br></div><div><br></div></div></div>