<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><blockquote type="cite" class="">Wrt MPICH - My suggestion is to install with --download-mpich --prefix [as mentioned]. Primary reason is: we use --with-device=ch3:sock - which is good for 'oversubscribe' usage [running "mpiexec -n 8 ./exe" on a dual core box] - which is what we normally do during development. And also its valgrind clean.</blockquote><div class=""><br class=""></div>Prefix is where the source is downloaded to? Or where the libs/binaries are put? Ideally I would like my source to be in /my/custom/path and the resulting binaries and libraries to be in /usr/bin or /usr/local/bin where all my other downloaded packages are.<div class=""><br class=""><div class="">
<div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div>Best regards,<br class=""><br class="">Jacob Faibussowitsch<br class="">(Jacob Fai - booss - oh - vitch)<br class="">Cell: (312) 694-3391</div></div>

</div>
<div><br class=""><blockquote type="cite" class=""><div class="">On Mar 22, 2020, at 4:37 PM, Satish Balay <<a href="mailto:balay@mcs.anl.gov" class="">balay@mcs.anl.gov</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div class="">On Sun, 22 Mar 2020, Jacob Faibussowitsch wrote:<br class=""><br class=""><blockquote type="cite" class=""><blockquote type="cite" class="">Yes on all points regarding MPI and BLAS/Lapack.  I recommend installing<br class="">a current MPICH and/or Open MPI system-wide, preferably hooked up to<br class="">ccache (see replies to this thread:<br class=""><a href="https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html" class="">https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html</a> <<a href="https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html" class="">https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html</a>>),<br class="">as well as BLAS/Lapack system-wide.  It's the other packages that are<br class="">more likely to depend on int/scalar configuration, but even many of<br class="">those (HDF5, SuiteSparse, etc.) aren't built specially for PETSc.<br class=""></blockquote><br class="">Is the home-brew MPICH, openblas, lapack sufficient here? Or is it recommended to build all three from source?<br class=""></blockquote><br class="">On Mac - configure defaults to using VecLib [Apple's default blas/alapck].<br class=""><br class="">Wrt MPICH - My suggestion is to install with --download-mpich --prefix [as mentioned]. Primary reason is: we use --with-device=ch3:sock - which is good for 'oversubscribe' usage [running "mpiexec -n 8 ./exe" on a dual core box] - which is what we normally do during development. And also its valgrind clean.<br class=""><br class="">And then we recommend xcode gcc/g++ with brew/gfortran - so MPICH can be built with this combination of compilers [using this mode]<br class=""><br class="">Satish<br class=""><br class=""><blockquote type="cite" class=""><br class="">Best regards,<br class=""><br class="">Jacob Faibussowitsch<br class="">(Jacob Fai - booss - oh - vitch)<br class="">Cell: (312) 694-3391<br class=""><br class=""><blockquote type="cite" class="">On Mar 22, 2020, at 4:25 PM, Jed Brown <<a href="mailto:jed@jedbrown.org" class="">jed@jedbrown.org</a>> wrote:<br class=""><br class="">Jacob Faibussowitsch <<a href="mailto:jacob.fai@gmail.com" class="">jacob.fai@gmail.com</a> <<a href="mailto:jacob.fai@gmail.com" class="">mailto:jacob.fai@gmail.com</a>>> writes:<br class=""><br class=""><blockquote type="cite" class="">Hello all,<br class=""><br class="">As part of development, I have several arch folders lying around in my PETSC_DIR namely a 32-bit OSX, 64-bit OSX, 32-bit linux with valgrind, 64-bit linux with valgrind, and a 32-bit up to date with current master. All of these have a —download-mpich —download-fblaslapack and hence their own copy of each (so that’s 5 copies of each, plus other duplicated packages im sure). At this stage, even getting the bare minimum of these arches ready for dev work after a rebase/git pull takes decades as package versions, or conf settings change, forcing a rebuild of the same packages multiple times.<br class=""><br class="">My question(s):<br class="">What petsc ./configure options are necessary to change the<br class="">configuration of each library w.r.t. petsc? i.e. can my 64-bit arches<br class="">use my 32-bit MPICH/fblaslapack and vice-versa? <br class=""></blockquote><br class="">Yes on all points regarding MPI and BLAS/Lapack.  I recommend installing<br class="">a current MPICH and/or Open MPI system-wide, preferably hooked up to<br class="">ccache (see replies to this thread:<br class=""><a href="https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html" class="">https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html</a> <<a href="https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html" class="">https://lists.mcs.anl.gov/pipermail/petsc-dev/2020-January/025505.html</a>>),<br class="">as well as BLAS/Lapack system-wide.  It's the other packages that are<br class="">more likely to depend on int/scalar configuration, but even many of<br class="">those (HDF5, SuiteSparse, etc.) aren't built specially for PETSc.<br class=""><br class=""><blockquote type="cite" class="">Does this change when I have —with-debug on or off? If so, what other<br class="">packages have a similar ability? Is there anywhere in ./configure<br class="">—help where this kind of information would be documented?<br class=""><br class="">I suspect that this hasn’t been fully explored since its primarily a developer “problem” and not one the average user will run into/care about (since they usually aren’t building petsc multiple times). I’m sure everyone has their own ways of tackling this problem, I’d love to hear them.<br class=""><br class="">Best regards,<br class=""><br class="">Jacob Faibussowitsch<br class="">(Jacob Fai - booss - oh - vitch)<br class="">Cell: (312) 694-3391<br class=""></blockquote></blockquote><br class=""><br class=""></blockquote></div></div></blockquote></div><br class=""></div></body></html>