<div class="gmail_quote">On Sun, Jul 10, 2011 at 13:15, John Chludzinski <span dir="ltr">&lt;<a href="mailto:jchludzinski@gmail.com">jchludzinski@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div>&quot;If you don&#39;t have a real MPI installed&quot;?<br></div><div><br></div><div>I installed (on Cygwin) using: ./configure CC=gcc FC=gfortran --download-mpich=1 PETSC_ARCH=arch-cygwin-gnu</div><div><br></div><div>

I&#39;ve compiled some example MPI code using mpicc. And I&#39;ve run the generated executable with: mpiexec -n &lt;some int&gt; &lt;executable&gt;.</div><div><br></div><div>&quot;ps&quot; says it created n-number of processes.</div>

<div><br></div><div>But it is on a 2-proc/4-core Windows box running Cygwin (of course, not configured as a cluster).</div><div><br></div><div>Do I have &quot;real MPI&quot; installed?</div></blockquote></div><br><div>Yes.</div>
<div><br></div><div>Note that threading offers very little potential performance improvement on a system like this. It becomes more important if you have many &quot;fat&quot; nodes, for example if each node has 4 sockets with 12 cores per socket and you want to &quot;strong scale&quot; such that the subdomains become very small (less than 10k unknowns if inexpensive preconditioners are working, also depending on the network and intra-node bandwidth).</div>