<div><p>> First you need to figure out what is triggering:<br /><br />> C:/MPI/Bin/mpiexec.exe: error while loading shared libraries: ?: cannot open shared object file: No such file or directory<br /><br />> Googling it finds all kinds of suggestions for Linux. But Windows? Maybe the debugger will help.<br /><br />>   Second<br />>   VecNorm_Seq line 221 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/vec/vec/impls/seq/bvec2.c</p><p><br />>  Debugger is best to find out what is triggering this. Since it is the C side of things it would be odd that the Fortran change affects it.<br /><br />>   Barry<br /> </p><div>I am in the process of finding out the causes of these errors.<br /><br />I'm inclined to the fact that BLAS has still some influence on what is happening.<br />Because testing of 32-bit version of PETSc gives such weird error with mpiexec.exe, but Fortran example ex5f completes succeccfully.<br /><br />I need to say that my solver compiled with 64-bit version of PETSc failed with Segmentation Violation error (the same as ex5f) when calling <em>KSPSolve(Krylov,Vec_F,Vec_U,ierr)</em>.<br />During the execution <em>KSPSolve </em>appeals to<em> VecNorm_Seq</em> in bvec2.c. Also <em>VecNorm_Seq</em>  uses several types of integer: <em>PetscErrorCode, PetscInt, PetscBLASInt.</em><br />I suspect that <em>PetscBLASInt </em>may conflict with <em>PetscInt.</em></div><div>Also I noted that execution of <em>KSPSolve() </em>does not even start ,<em> </em>so arguments (<em>Krylov,Vec_F,Vec_U,ierr) </em>cannot be passed to<em> KSPSolve().</em><br />(inserted <em>fprint()</em> in the top of <em>KSPSolve </em>and saw no output)<br /><br /> </div></div><div>So I tried to configure PETSc with --download-fblaslapack --with-64-bit-blas-indices, but got an error that<div> </div><div><em>fblaslapack does not support -with-64-bit-blas-indices</em></div><div> </div>Switching to flags --download-openblas -with-64-bit-blas-indices was unsuccessfully too because of error:<br /> <div><em>Error during download/extract/detection of OPENBLAS:</em></div><div><em>Unable to download openblas</em></div><div><em>Could not execute "['git clone https://github.com/xianyi/OpenBLAS.git /cygdrive/d/Computational_geomechanics/installation/petsc-barry/arch-mswin-c-debug/externalpackages/git.openblas']":</em></div><div><em>fatal: destination path '/cygdrive/d/Computational_geomechanics/installation/petsc-barry/arch-mswin-c-debug/externalpackages/git.openblas' already exists and is not an empty directory.</em></div><div><em>Unable to download package OPENBLAS from: git://https://github.com/xianyi/OpenBLAS.git</em></div><div><em>* If URL specified manually - perhaps there is a typo?</em></div><div><em>* If your network is disconnected - please reconnect and rerun ./configure</em></div><div><em>* Or perhaps you have a firewall blocking the download</em></div><div><em>* You can run with --with-packages-download-dir=/adirectory and ./configure will instruct you what packages to download manually</em></div><div><em>* or you can download the above URL manually, to /yourselectedlocation</em></div><div><em>  and use the configure option:</em></div><div><em>  --download-openblas=/yourselectedlocation</em></div><div><em>Unable to download openblas</em></div><div><em>Could not execute "['git clone https://github.com/xianyi/OpenBLAS.git /cygdrive/d/Computational_geomechanics/installation/petsc-barry/arch-mswin-c-debug/externalpackages/git.openblas']":</em></div><div><em>fatal: destination path '/cygdrive/d/Computational_geomechanics/installation/petsc-barry/arch-mswin-c-debug/externalpackages/git.openblas' already exists and is not an empty directory.</em></div><div><em>Unable to download package OPENBLAS from: git://https://github.com/xianyi/OpenBLAS.git</em></div><div><em>* If URL specified manually - perhaps there is a typo?</em></div><div><em>* If your network is disconnected - please reconnect and rerun ./configure</em></div><div><em>* Or perhaps you have a firewall blocking the download</em></div><div><em>* You can run with --with-packages-download-dir=/adirectory and ./configure will instruct you what packages to download manually</em></div><div><em>* or you can download the above URL manually, to /yourselectedlocation</em></div><div><em>  and use the configure option:</em></div><div><em>  --download-openblas=/yourselectedlocation</em></div><div><em>Could not locate downloaded package OPENBLAS in /cygdrive/d/Computational_geomechanics/installation/petsc-barry/arch-mswin-c-debug/externalpackages</em></div><div> </div>But I checked the last location (.../<em>externalpackages)</em>  and saw that OpenBLAS downloaded and unzipped.<br /><br /><br /> </div><div>Kind regards,<br /> Dmitry Melnichuk<br /><br /> </div><div>20.01.2020, 16:32, "Smith, Barry F." <bsmith@mcs.anl.gov>:</div><blockquote><p><br />   First you need to figure out what is triggering:<br /><br />C:/MPI/Bin/mpiexec.exe: error while loading shared libraries: ?: cannot open shared object file: No such file or directory<br /><br />Googling it finds all kinds of suggestions for Linux. But Windows? Maybe the debugger will help.<br /><br />   Second<br /><br /> </p><blockquote> VecNorm_Seq line 221 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/vec/vec/impls/seq/bvec2.c</blockquote><p><br />  Debugger is best to find out what is triggering this. Since it is the C side of things it would be odd that the Fortran change affects it.<br /><br />   Barry<br /><br /><br /><br /><br /><br /> </p><blockquote> On Jan 20, 2020, at 4:43 AM, Дмитрий Мельничук <<a href="mailto:dmitry.melnichuk@geosteertech.com">dmitry.melnichuk@geosteertech.com</a>> wrote:<br /><br /> Thank you so much for your assistance!<br /><br /> As far as I have been able to find out, the errors "Type mismatch in argument ‘ierr’" have been successfully fixed.<br /> But execution of command "make PETSC_DIR=/cygdrive/d/... PETSC_ARCH=arch-mswin-c-debug check" leads to the appereance of Segmantation Violation error.<br /><br /> I compiled PETSc with Microsoft MPI v10.<br /> Does it make sense to compile PETSc with another MPI implementation (such as MPICH) in order to resolve the issue?<br /><br /> Error message:<br /> Running test examples to verify correct installation<br /> Using PETSC_DIR=/cygdrive/d/Computational_geomechanics/installation/petsc-barry and PETSC_ARCH=arch-mswin-c-debug<br /> Possible error running C/C++ src/snes/examples/tutorials/ex19 with 1 MPI process<br /> See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br /> C:/MPI/Bin/mpiexec.exe: error while loading shared libraries: ?: cannot open shared object file: No such file or directory<br /> Possible error running C/C++ src/snes/examples/tutorials/ex19 with 2 MPI processes<br /> See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br /> C:/MPI/Bin/mpiexec.exe: error while loading shared libraries: ?: cannot open shared object file: No such file or directory<br /> Possible error running Fortran example src/snes/examples/tutorials/ex5f with 1 MPI process<br /> See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html">http://www.mcs.anl.gov/petsc/documentation/faq.html</a><br /> [0]PETSC ERROR: ------------------------------------------------------------------------<br /> [0]PETSC ERROR: Caught signal number 11 SEGV: Segmentation Violation, probably memory access out of range<br /> [0]PETSC ERROR: Try option -start_in_debugger or -on_error_attach_debugger<br /> [0]PETSC ERROR: or see <a href="https://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind">https://www.mcs.anl.gov/petsc/documentation/faq.html#valgrind</a><br /> [0]PETSC ERROR: or try <a href="http://valgrind.org/">http://valgrind.org</a> on GNU/linux and Apple Mac OS X to find memory corruption errors<br /> [0]PETSC ERROR: likely location of problem given in stack below<br /> [0]PETSC ERROR: --------------------- Stack Frames ------------------------------------<br /> [0]PETSC ERROR: Note: The EXACT line numbers in the stack are not available,<br /> [0]PETSC ERROR: INSTEAD the line number of the start of the function<br /> [0]PETSC ERROR: is given.<br /> [0]PETSC ERROR: [0] VecNorm_Seq line 221 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/vec/vec/impls/seq/bvec2.c<br /> [0]PETSC ERROR: [0] VecNorm line 213 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/vec/vec/interface/rvector.c<br /> [0]PETSC ERROR: [0] SNESSolve_NEWTONLS line 144 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/snes/impls/ls/ls.c<br /> [0]PETSC ERROR: [0] SNESSolve line 4375 /cygdrive/d/Computational_geomechanics/installation/petsc-barry/src/snes/interface/snes.c<br /> [0]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------<br /> [0]PETSC ERROR: Signal received<br /> [0]PETSC ERROR: See <a href="https://www.mcs.anl.gov/petsc/documentation/faq.html">https://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.<br /> [0]PETSC ERROR: Petsc Development GIT revision: unknown GIT Date: unknown<br /> [0]PETSC ERROR: ./ex5f on a arch-mswin-c-debug named DESKTOP-R88IMOB by useruser Mon Jan 20 09:18:34 2020<br /> [0]PETSC ERROR: Configure options --with-cc=x86_64-w64-mingw32-gcc --with-cxx=x86_64-w64-mingw32-g++ --with-fc=x86_64-w64-mingw32-gfortran --with-mpi-include=/cygdrive/c/MPISDK/Include --with-mpi-lib=/cygdrive/c/MPISDK/Lib/libmsmpi.a --with-mpi-mpiexec=/cygdrive/c/MPI/Bin/mpiexec.exe --with-debugging=yes -CFLAGS=-O2 -CXXFLAGS=-O2 -FFLAGS="-O2 -static-libgfortran -static -lpthread -fno-range-check -fdefault-integer-8" --download-fblaslapack --with-shared-libraries=no --with-64-bit-indices --force<br /> [0]PETSC ERROR: #1 User provided function() line 0 in unknown file<br /><br /> job aborted:<br /> [ranks] message<br /><br /> [0] application aborted<br /> aborting MPI_COMM_WORLD (comm=0x44000000), error 50152059, comm rank 0<br /><br /> ---- error analysis -----<br /><br /> [0] on DESKTOP-R88IMOB<br /> ./ex5f aborted the job. abort code 50152059<br /><br /> ---- error analysis -----<br /> Completed test examples<br /><br /> Kind regards,<br /> Dmitry Melnichuk<br /><br /> 19.01.2020, 07:47, "Smith, Barry F." <<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>>:<br /><br />    Dmitry,<br /><br />    I have completed and tested the branch barry/2020-01-15/support-default-integer-8 it is undergoing testing now <a href="https://gitlab.com/petsc/petsc/merge_requests/2456">https://gitlab.com/petsc/petsc/merge_requests/2456</a><br /><br />    Please give it a try. Note that MPI has no support for integer promotion so YOU must insure that any MPI calls from Fortran pass 4 byte integers not promoted 8 byte integers.<br /><br />    I have tested it with recent versions of MPICH and OpenMPI, it is fragile at compile time and may fail to compile with different versions of MPI.<br /><br />     Good luck,<br /><br />    Barry<br /><br />     I do not recommend this approach for integer promotion in Fortran. Just blindly promoting all integers can often lead to problems. I recommend using the kind mechanism of<br /> Fortran to insure that each variable is the type you want, you can recompile with different options to promote the kind declared variables you wish. Of course this is more intrusive and requires changes to the Fortran code.<br /><br /><br />  On Jan 15, 2020, at 7:00 AM, Дмитрий Мельничук <<a href="mailto:dmitry.melnichuk@geosteertech.com">dmitry.melnichuk@geosteertech.com</a>> wrote:<br /><br />  Hello all!<br /><br />  At present time I need to compile solver called Defmod (<a href="https://bitbucket.org/stali/defmod/wiki/Home">https://bitbucket.org/stali/defmod/wiki/Home</a>), which is written in Fortran 95.<br />  Defmod uses PETSc for solving linear algebra system.<br />  Solver compilation with 32-bit version of PETSc does not cause any problem.<br />  But solver compilation with 64-bit version of PETSc produces an error with size of ierr PETSc variable.<br /><br />  1. For example, consider the following statements written in Fortran:<br /><br /><br />  PetscErrorCode :: ierr_m<br />  PetscInt :: ierr<br />  ...<br />  ...<br />  call VecDuplicate(Vec_U,Vec_Um,ierr)<br />  call VecCopy(Vec_U,Vec_Um,ierr)<br />  call VecGetLocalSize(Vec_U,j,ierr)<br />  call VecGetOwnershipRange(Vec_U,j1,j2,ierr_m)<br /><br /><br />  As can be seen first three subroutunes require ierr to be size of INTEGER(8), while the last subroutine (VecGetOwnershipRange) requires ierr to be size of INTEGER(4).<br />  Using the same integer format gives an error:<br /><br />  There is no specific subroutine for the generic ‘vecgetownershiprange’ at (1)<br /><br />  2. Another example is:<br /><br /><br />  call MatAssemblyBegin(Mat_K,Mat_Final_Assembly,ierr)<br />  CHKERRA(ierr)<br />  call MatAssemblyEnd(Mat_K,Mat_Final_Assembly,ierr)<br /><br /><br />  I am not able to define an appropriate size if ierr in CHKERRA(ierr). If I choose INTEGER(8), the error "Type mismatch in argument ‘ierr’ at (1); passed INTEGER(8) to INTEGER(4)" occurs.<br />  If I define ierr as INTEGER(4), the error "Type mismatch in argument ‘ierr’ at (1); passed INTEGER(4) to INTEGER(8)" appears.<br /><br /><br />  3. If I change the sizes of ierr vaiables as error messages require, the compilation completed successfully, but an error occurs when calculating the RHS vector with following message:<br /><br />  [0]PETSC ERROR: Out of range index value -4 cannot be negative<br /><br /><br />  Command to configure 32-bit version of PETSc under Windows 10 using Cygwin:<br />  ./configure --with-cc=x86_64-w64-mingw32-gcc --with-cxx=x86_64-w64-mingw32-g++ --with-fc=x86_64-w64-mingw32-gfortran --download-fblaslapack --with-mpi-include=/cygdrive/c/MPISDK/Include --with-mpi-lib=/cygdrive/c/MPISDK/Lib/libmsmpi.a --with-mpi-mpiexec=/cygdrive/c/MPI/Bin/mpiexec.exe --with-debugging=yes -CFLAGS='-O2' -CXXFLAGS='-O2' -FFLAGS='-O2 -static-libgfortran -static -lpthread -fno-range-check' --with-shared-libraries=no<br /><br />  Command to configure 64-bit version of PETSc under Windows 10 using Cygwin:<br />  ./configure --with-cc=x86_64-w64-mingw32-gcc --with-cxx=x86_64-w64-mingw32-g++ --with-fc=x86_64-w64-mingw32-gfortran --download-fblaslapack --with-mpi-include=/cygdrive/c/MPISDK/Include --with-mpi-lib=/cygdrive/c/MPISDK/Lib/libmsmpi.a --with-mpi-mpiexec=/cygdrive/c/MPI/Bin/mpiexec.exe --with-debugging=yes -CFLAGS='-O2' -CXXFLAGS='-O2' -FFLAGS='-O2 -static-libgfortran -static -lpthread -fno-range-check -fdefault-integer-8' --with-shared-libraries=no --with-64-bit-indices --known-64-bit-blas-indices<br /><br /><br />  Kind regards,<br />  Dmitry Melnichuk<br /> </blockquote><p> </p></blockquote>