<div dir="ltr"><div>Matt, thanks! i will look into that and find other ways to make the computation faster.<br><br>Barry, the benchmark reports up to 2 speedup, but says 1 node in the end. but either way i was expecting a higher speedup.. 2 is the limit for two cpus despite the multiple cores?<br></div><div><br></div>please let me know if the file attached is what you are asking for. <br>Thank you!<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Sep 15, 2014 at 8:23 PM, Barry Smith <span dir="ltr"><<a href="mailto:bsmith@mcs.anl.gov" target="_blank">bsmith@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
   Please send the output from running<br>
<br>
    make steams NPMAX=32<br>
<br>
    in the PETSc root directory.<br>
<br>
<br>
   Barry<br>
<br>
  My guess is that it reports “one node” is just because it uses the “hostname” to distinguish nodes and though your machine has two CPUs, from the point of view of the OS it has only a single hostname and hence reports just one “node”.<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Sep 15, 2014, at 12:45 PM, Katy Ghantous <<a href="mailto:katyghantous@gmail.com">katyghantous@gmail.com</a>> wrote:<br>
<br>
> Hi,<br>
> I am using DMDA to run in parallel TS to solves a set of N equations. I am using DMDAGetCorners in the RHSfunction with setting the stencil size at 2 to solve a set of coupled ODEs on 30 cores.<br>
> The machine has 32 cores (2 physical CPUs with 2x8 core each with speed of 3.4Ghz per core).<br>
> However, mpiexec with more than one core is showing no speedup.<br>
> Also at the configuring/testing stage for petsc on that machine, there was no speedup and it only reported one node.<br>
> Is there somehting wrong with how i configured petsc or is the approach inappropriate for the machine?<br>
> I am not sure what files (or sections of the code) you would need to be able to answer my question.<br>
><br>
> Thank you!<br>
<br>
</div></div></blockquote></div><br></div>