<div dir="ltr">Justin is right that parallelism will be of limited value for such small systems. This looks like a serial optimization job.<div>Moreover, in this case, a better numerical method usually trumps any kind of machine optimization.</div><div><br></div><div>   Matt</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Oct 20, 2017 at 2:55 AM, Justin Chang <span dir="ltr"><<a href="mailto:jychang48@gmail.com" target="_blank">jychang48@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">600 unknowns is way too small to parallelize. Need at least 10,000 unknowns per MPI process: <a href="https://www.mcs.anl.gov/petsc/documentation/faq.html#slowerparallel" target="_blank">https://www.mcs.anl.<wbr>gov/petsc/documentation/faq.<wbr>html#slowerparallel</a> </div><div dir="auto"><br></div><div dir="auto">What problem are you solving? Sounds like you either compiled PETSc with debugging mode on or you just have a really terrible solver. Show us the output of -log_view.</div><div class="HOEnZb"><div class="h5"><div><br><div class="gmail_quote"><div>On Fri, Oct 20, 2017 at 12:47 AM Luca Verzeroli <<a href="mailto:l.verzeroli@studenti.unibg.it" target="_blank">l.verzeroli@studenti.unibg.it</a><wbr>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div style="font-family:Calibri,sans-serif;font-size:11pt">Good morning,<br>For my thesis I'm dealing with GALILEO, one of the clusters owned by Cineca. <a href="http://www.hpc.cineca.it/hardware/galileo" target="_blank">http://www.hpc.cineca.it/<wbr>hardware/galileo</a><br>The first question is: What is the best configuration to run petsc on this kind of cluster? My code is only a MPI program and I would like to know if it's better to use more nodes or more CPUs with mpirun.<br>This question comes from the speed up of my code using that cluster. I have a small problem. The global matrices are 600x600. Are they too small to see a speed up with more mpiprocess? I notice that a single core simulation and a multi cores one take a similar time (multi core a second more). The real problem comes when I have to run multiple simulation of the same code changing some parameters. So I would like to speed up the single simulation. <br>Any advices?</div></div></div><div><div><div style="font-family:Calibri,sans-serif;font-size:11pt"><br><br>Luca Verzeroli</div></div></div></blockquote></div></div>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>-- Norbert Wiener</div><div><br></div><div><a href="http://www.caam.rice.edu/~mk51/" target="_blank">https://www.cse.buffalo.edu/~knepley/</a><br></div></div></div></div></div>
</div>