<div dir="ltr">Hi Justin,<div><br></div><div>If  the only constraints you have are bounds on the variables, then you are much better off using the TAO algorithms tron or blmvm. IPM builds its own KKT matrix for a ksp solve that is undoubtably much less efficient than what will be used in tron (blmvm avoids ksp solves all together).</div><div><br></div><div>That begin said, it looks like there's a bug in IPM and I'll try to track it down, thanks for the report.</div><div><br></div><div>Jason</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Oct 14, 2014 at 9:34 PM, Justin Chang <span dir="ltr"><<a href="mailto:jychang48@gmail.com" target="_blank">jychang48@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div>
<div dir="ltr">
<div>
<div>Attached is the source code and the makefile used to compile/run the code.<br>
<br>
</div>
The source code is basically a dumbed down version of SNES ex12 plus necessary TAO routines.<br>
<br>
</div>
Thanks<br>
</div><div><div class="h5">
<div class="gmail_extra"><br>
<div class="gmail_quote">On Tue, Oct 14, 2014 at 8:39 PM, Matthew Knepley <span dir="ltr">
<<a href="mailto:knepley@gmail.com" target="_blank">knepley@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr">
<div class="gmail_extra">
<div class="gmail_quote"><span>On Tue, Oct 14, 2014 at 8:04 PM, Justin Chang
<span dir="ltr"><<a href="mailto:jychang48@gmail.com" target="_blank">jychang48@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr">
<div>
<div>Hi all,<br>
<br>
</div>
So I am writing a non-negative diffusion equation using DMPlex's FEM and Tao's SetVariableBounds functions. My code works really perfectly when I run it with one processor. However, once I use 2 or more processors, I get this error:<br>
</div>
</div>
</blockquote>
<div><br>
</div>
</span>
<div>It looks like the problem is in the TAO definition, but you can check by just solving your problem with, for instance, BJacobi-LU in parallel.</div>
<div>
<div>
<div> </div>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr">
<div>[0]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------<br>
[0]PETSC ERROR: Nonconforming object sizes<br>
[0]PETSC ERROR: Vector wrong size 89 for scatter 88 (scatter reverse and vector to != ctx from size)<br>
[1]PETSC ERROR: --------------------- Error Message --------------------------------------------------------------<br>
[1]PETSC ERROR: Nonconforming object sizes<br>
[1]PETSC ERROR: Vector wrong size 87 for scatter 88 (scatter reverse and vector to != ctx from size)<br>
[1]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html" target="_blank">
http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.<br>
[1]PETSC ERROR: Petsc Development GIT revision: v3.5.2-526-gfaecc80  GIT Date: 2014-10-04 20:10:35 -0500<br>
[1]PETSC ERROR: [0]PETSC ERROR: See <a href="http://www.mcs.anl.gov/petsc/documentation/faq.html" target="_blank">
http://www.mcs.anl.gov/petsc/documentation/faq.html</a> for trouble shooting.<br>
[0]PETSC ERROR: Petsc Development GIT revision: v3.5.2-526-gfaecc80  GIT Date: 2014-10-04 20:10:35 -0500<br>
[0]PETSC ERROR: ./bin/diff2D on a arch-linux2-c-debug named pacotaco by justin Tue Oct 14 19:48:50 2014<br>
[0]PETSC ERROR: ./bin/diff2D on a arch-linux2-c-debug named pacotaco by justin Tue Oct 14 19:48:50 2014<br>
[1]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --download-fblaslapack --download-mpich --with-debugging=1 --download-metis --download-parmetis --download-triangle --with-cmake=cmake --download-ctetgen --download-superlu --download-scalapack
 --download-mumps --download-hdf5 --with-valgrind=1 -with-cmake=cmake<br>
[1]PETSC ERROR: Configure options --with-cc=gcc --with-cxx=g++ --with-fc=gfortran --download-fblaslapack --download-mpich --with-debugging=1 --download-metis --download-parmetis --download-triangle --with-cmake=cmake --download-ctetgen --download-superlu --download-scalapack
 --download-mumps --download-hdf5 --with-valgrind=1 -with-cmake=cmake<br>
[0]PETSC ERROR: #1 VecScatterBegin() line 1713 in /home/justin/petsc-master/src/vec/vec/utils/vscat.c<br>
#1 VecScatterBegin() line 1713 in /home/justin/petsc-master/src/vec/vec/utils/vscat.c<br>
[1]PETSC ERROR: [0]PETSC ERROR: #2 MatMultTranspose_MPIAIJ() line 1010 in /home/justin/petsc-master/src/mat/impls/aij/mpi/mpiaij.c<br>
[0]PETSC ERROR: #2 MatMultTranspose_MPIAIJ() line 1010 in /home/justin/petsc-master/src/mat/impls/aij/mpi/mpiaij.c<br>
[1]PETSC ERROR: #3 MatMultTranspose() line 2242 in /home/justin/petsc-master/src/mat/interface/matrix.c<br>
#3 MatMultTranspose() line 2242 in /home/justin/petsc-master/src/mat/interface/matrix.c<br>
[0]PETSC ERROR: #4 IPMComputeKKT() line 616 in /home/justin/petsc-master/src/tao/constrained/impls/ipm/ipm.c<br>
[1]PETSC ERROR: #4 IPMComputeKKT() line 616 in /home/justin/petsc-master/src/tao/constrained/impls/ipm/ipm.c<br>
[1]PETSC ERROR: [0]PETSC ERROR: #5 TaoSolve_IPM() line 50 in /home/justin/petsc-master/src/tao/constrained/impls/ipm/ipm.c<br>
[0]PETSC ERROR: #5 TaoSolve_IPM() line 50 in /home/justin/petsc-master/src/tao/constrained/impls/ipm/ipm.c<br>
[1]PETSC ERROR: #6 TaoSolve() line 190 in /home/justin/petsc-master/src/tao/interface/taosolver.c<br>
#6 TaoSolve() line 190 in /home/justin/petsc-master/src/tao/interface/taosolver.c<br>
[0]PETSC ERROR: #7 main() line 341 in /home/justin/Dropbox/Research_Topics/Petsc_Nonneg_diffusion/src/diff2D.c<br>
[1]PETSC ERROR: #7 main() line 341 in /home/justin/Dropbox/Research_Topics/Petsc_Nonneg_diffusion/src/diff2D.c<br>
[1]PETSC ERROR: [0]PETSC ERROR: ----------------End of Error Message -------send entire error message to petsc-maint@mcs.anl.gov----------<br>
----------------End of Error Message -------send entire error message to petsc-maint@mcs.anl.gov----------<br>
application called MPI_Abort(MPI_COMM_WORLD, 60) - process 0<br>
application called MPI_Abort(MPI_COMM_WORLD, 60) - process 1<br>
[cli_1]: aborting job:<br>
application called MPI_Abort(MPI_COMM_WORLD, 60) - process 1<br>
[cli_0]: aborting job:<br>
application called MPI_Abort(MPI_COMM_WORLD, 60) - process 0<br>
<br>
<br>
</div>
<div>I have no idea how or why I am getting this error. What does this mean?<br>
</div>
</div>
</blockquote>
<div><br>
</div>
</div>
</div>
<div>It looks like one dof is given to proc 0 which should live on proc 1. We have to look at the divisions</div>
<div>made in the KKT solver. Can you send a small example?</div>
<div><br>
</div>
<div>  Matt</div>
<span>
<div> </div>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr">
<div></div>
My code is essentially built off of SNES ex12.c. The Jacobian matrix, residual vector, and solution vector were created using DMPlex and the built-in FEM functions within. The Hessian matrix and gradient vector were created by simple matmult() functions of
 the jacobian and residual. The lower bounds vector was created by duplicating the solution vector (initial guess set to zero). My FormFunctionGradient() is basically the same thing as in the maros.c example. can give more information if needed.<br>
<br>
Thanks,<br>
Justin<br>
</div>
</blockquote>
</span></div>
<span><font color="#888888"><br>
<br clear="all">
<div><br>
</div>
-- <br>
What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener </font></span></div>
</div>
</blockquote>
</div>
<br>
</div>
</div></div></div>

</blockquote></div><br></div>