<div dir="ltr">Thanks alot for all of your suggestions. I think I have a better insight about the direction now.</div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 6, 2016 at 2:03 AM, Dave May <span dir="ltr"><<a href="mailto:dave.mayhem23@gmail.com" target="_blank">dave.mayhem23@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><span class="">On 5 October 2016 at 18:49, Matthew Knepley <span dir="ltr"><<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span class="m_1643474647266454051gmail-">On Wed, Oct 5, 2016 at 11:19 AM, E. Tadeu <span dir="ltr"><<a href="mailto:e.tadeu@gmail.com" target="_blank">e.tadeu@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Matt,<div><br></div><div>  Do you know if there is any example of solving Navier Stokes using a staggered approach by using a different DM object such as DMPlex?</div></div></blockquote><div><br></div></span><div>SNES ex62 can do P2/P1 Stokes, which is similar. Is that what you want to see?</div><div><br></div><div>For real structured grid, staggered mesh stuff like MAC, I would just do this on a single DMDA, but think of it as being staggered, and expand my</div><div>stencil as necessary.</div></div></div></div></blockquote><div><br></div></span><div>Following that up, for a DMDA example using a staggered grid, take a look at snes/ex30.c<br><br><a href="http://www.mcs.anl.gov/petsc/petsc-current/src/snes/examples/tutorials/ex30.c.html" target="_blank">http://www.mcs.anl.gov/petsc/<wbr>petsc-current/src/snes/<wbr>examples/tutorials/ex30.c.html</a><br><br></div><div>Thanks,<br></div><div>  Dave<br></div><span class=""><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><span class="m_1643474647266454051gmail-"><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>  </div><div>  Thanks,</div><div>    Edson</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Oct 4, 2016 at 11:12 PM, Matthew Knepley <span dir="ltr"><<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><span>On Tue, Oct 4, 2016 at 9:02 PM, Somdeb Bandopadhyay <span dir="ltr"><<a href="mailto:sb020287@gmail.com" target="_blank">sb020287@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Dear all,<div>            I want to write a solver for incompressible navier stokes using python and I want to use PETsc (particularly dmda & ksp) for this. May I know if this type of work is feasible/already done?</div></div></blockquote><div><br></div></span><div>How do you plan to discretize your system? DMDA supports only collocation discretizations, so some sort of penalty for pressure would</div><div>have to be employed.</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><span><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>            I intend to run my solver in a cluster and so am slightly concerned about the performance if I use python with petsc.</div><div>            My deepest apologies if this mail of mine caused you any inconvenience.</div><span class="m_1643474647266454051gmail-m_6263581344543593948m_-4868983918861781883m_-6233087236781354595HOEnZb"><font color="#888888"><div><br></div><div>Somdeb</div></font></span></div>
</blockquote></span></div><span class="m_1643474647266454051gmail-m_6263581344543593948m_-4868983918861781883HOEnZb"><font color="#888888"><br><br clear="all"><span class="m_1643474647266454051gmail-m_6263581344543593948HOEnZb"><font color="#888888"><div><br></div>-- <br><div class="m_1643474647266454051gmail-m_6263581344543593948m_-4868983918861781883m_-6233087236781354595gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</font></span></font></span></div></div>
</blockquote></div><br></div>
</blockquote></span></div><span class="m_1643474647266454051gmail-"><br><br clear="all"><div><br></div>-- <br><div class="m_1643474647266454051gmail-m_6263581344543593948gmail_signature">What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div>
</span></div></div>
</blockquote></span></div><br></div></div>
</blockquote></div><br></div>