<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Fri, Jul 18, 2014 at 8:16 PM, John Yawney <span dir="ltr"><<a href="mailto:jyawney123@gmail.com" target="_blank">jyawney123@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hello,<div><br></div><div>I had a question about PETSc installations. On my local computer I configured PETSc (v 3.4.2) using the options:</div>
<div><br></div><div><span style="font-family:arial,sans-serif;font-size:12.666666984558105px">./configure --with-cc=mpicc --with-cxx=mpic++ --download-f-blas-lapack --download-mpich --download-hypre</span><br>
</div><div><span style="font-family:arial,sans-serif;font-size:12.666666984558105px"><br></span></div><div><span style="font-family:arial,sans-serif;font-size:12.666666984558105px">I wrote a test program that defines a vector using DMDAs, computes a dot product, exchanges halo elements, and computes a low-order FD derivative of the vector. Under my installation of PETSc everything works fine. </span><span style="font-family:arial,sans-serif;font-size:12.666666984558105px">For some reason, when my colleagues run the program, they get segmentation fault errors. If they change the y and z boundary types to GHOSTED as well, they get the program to run until the end (seg faults at the end though) but they get a local value of the dot product. I've attached the main.cpp file for this script.</span></div>

<div><span style="font-family:arial,sans-serif;font-size:12.666666984558105px"><br></span></div><div><span style="font-family:arial,sans-serif;font-size:12.666666984558105px">When they installed their versions of PETSc they didn't use the --download-mpich option but instead used either:</span></div>

<div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px">./configure --download-f-blas-lapack --with-scalar-type=complex</span></font><br></div><div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px">or with the option: --with-mpi-dir=/home/kim/anaconda/pkgs/mpich2-1.3-py27_0</span></font></div>

<div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px"><br></span></font></div><div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px">Could this be causing a problem with the parallelization under PETSc?</span></font></div>
</div></blockquote><div><br></div><div>I have run your code on my machine up to P=8 and used valgrind. No problems turned up other</div><div>than the fact that you need a "return 0" is missing from main().</div>
<div><br></div><div>If there are still problems, please have them send a stack trace.</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr"><div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px">Thanks for the help and sorry for the long question.</span></font></div>
<div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px"><br></span></font></div><div><font face="arial, sans-serif"><span style="font-size:12.666666984558105px">Best regards,</span></font></div><div>

<font face="arial, sans-serif"><span style="font-size:12.666666984558105px">John</span></font></div></div>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener
</div></div>