<div dir="ltr"><div>Thank you.<br></div><br>Barry, Please see the attached log files.<br><div><br>Asmund, my apologize, I forget to make clean and recompile the code. But I still don't see the full backtrace. I checked the compilation log and all source files are compiled with -g flag.<br>
<br> ==9475== Conditional jump or move depends on uninitialised value(s)<br>==9475==    at 0x216F00F: SearchPath (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>==9475==    by 0x216E854: mkl_cfg_file (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
==9475==    by 0x216B27C: DDOT (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>==9475==    by 0x1291768: VecNorm_Seq (bvec2.c:239)<br>==9475==    by 0x126FA99: VecNorm (rvector.c:166)<br>==9475==    by 0x1270A05: VecNormalize (rvector.c:261)<br>
==9475==    by 0x1405B6F: KSPGMRESCycle (gmres.c:127)<br>==9475==    by 0x1406FC7: KSPSolve_GMRES (gmres.c:231)<br>==9475==    by 0x1BEF5CE: KSPSolve (itfunc.c:446)<br>==9475==    by 0x13F9C50: kspsolve_ (itfuncf.c:219)<br>
==9475==    by 0xC5EB87: petsolv_ (PETSOLV.F:375)<br>==9475==    by 0x612C35: flowsol_ng_ (flowsol_ng.F:275)<br>==9475==  Uninitialised value was created by a stack allocation<br>==9475==    at 0x216EFE7: SearchPath (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
==9475== <br>==9475== Conditional jump or move depends on uninitialised value(s)<br>==9475==    at 0x216F039: SearchPath (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>==9475==    by 0x216E854: mkl_cfg_file (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
==9475==    by 0x216B27C: DDOT (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>==9475==    by 0x1291768: VecNorm_Seq (bvec2.c:239)<br>==9475==    by 0x126FA99: VecNorm (rvector.c:166)<br>==9475==    by 0x1270A05: VecNormalize (rvector.c:261)<br>
==9475==    by 0x1405B6F: KSPGMRESCycle (gmres.c:127)<br>==9475==    by 0x1406FC7: KSPSolve_GMRES (gmres.c:231)<br>==9475==    by 0x1BEF5CE: KSPSolve (itfunc.c:446)<br>==9475==    by 0x13F9C50: kspsolve_ (itfuncf.c:219)<br>
==9475==    by 0xC5EB87: petsolv_ (PETSOLV.F:375)<br>==9475==    by 0x612C35: flowsol_ng_ (flowsol_ng.F:275)<br>==9475==  Uninitialised value was created by a stack allocation<br>==9475==    at 0x216EFE7: SearchPath (in /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
==9475== <br>  0 KSP preconditioned resid norm 6.585278940829e+00 true resid norm 9.619278462343e-03 ||r(i)||/||b|| 1.000000000000e+00<br>  1 KSP preconditioned resid norm 6.585278219510e+00 true resid norm 9.619278462343e-03 ||r(i)||/||b|| 1.000000000000e+00<br>
  2 KSP preconditioned resid norm 2.198671238042e+00 true resid norm 1.365127786174e-01 ||r(i)||/||b|| 1.419158195200e+01<br>  3 KSP preconditioned resid norm 1.599921867950e+00 true resid norm 1.445986203309e-01 ||r(i)||/||b|| 1.503216908596e+01<br>
...................<br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, May 5, 2014 at 1:33 PM, Åsmund Ervik <span dir="ltr"><<a href="mailto:asmund.ervik@ntnu.no" target="_blank">asmund.ervik@ntnu.no</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">-----BEGIN PGP SIGNED MESSAGE-----<br>
Hash: SHA1<br>
<br>
You should also compile your own code "fensapngnew" with debug flags,<br>
specifically "-g"  for gcc/gfortran or icc/ifort. This tells the<br>
compiler to generate the information necessary for gdb or valgrind to<br>
do their job. Then you would get more detailed information than just<br>
<br>
'''<br>
<div class="">==8222==  Uninitialised value was created by a stack allocation<br>
==8222==    at 0x216E97F: SearchPath (in<br>
 /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
</div>'''<br>
<br>
E.g. when I have an error, I get a full backtrace with line numbers in<br>
my source code, like:<br>
'''<br>
==5277==  Uninitialised value was created by a heap allocation<br>
==5277==    at 0x4C277AB: malloc (in<br>
/usr/lib64/valgrind/vgpreload_memcheck-amd64-linux.so)<br>
==5277==    by 0x6BE3FE: __navier_stokes_MOD_rhs_ns (navier_stokes.f90:59)<br>
==5277==    by 0x6C712A: __rhs_MOD_dfdt_1phase (rhs.f90:109)<br>
==5277==    by 0x4EF52C: __rk_MOD_forward_euler (rk.f90:2168)<br>
==5277==    by 0x642764: __rk_wrapper_MOD_rk_step (rk_wrapper.f90:313)<br>
==5277==    by 0x7FA8B8: MAIN__ (meph.F90:179)<br>
==5277==    by 0x7FC5B9: main (meph.F90:2)<br>
==5277==<br>
'''<br>
<div><div class="h5"><br>
<br>
On 05. mai 2014 17:00, Song Gao wrote:<br>
> Thank you. Runing with mpirun -np 1 valgrind --track-origins=yes<br>
> ~/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG<br>
> -ksp_monitor_true_residual -ksp_view<br>
><br>
> gives the following information.<br>
><br>
> ==8222== Conditional jump or move depends on uninitialised<br>
> value(s) ==8222==    at 0x216E9A7: SearchPath (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x216E1EC: mkl_cfg_file (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x216AC14: DDOT (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x1291100: VecNorm_Seq (bvec2.c:239) ==8222==    by<br>
> 0x126F431: VecNorm (rvector.c:166) ==8222==    by 0x127039D:<br>
> VecNormalize (rvector.c:261) ==8222==    by 0x1405507:<br>
> KSPGMRESCycle (gmres.c:127) ==8222==    by 0x140695F:<br>
> KSPSolve_GMRES (gmres.c:231) ==8222==    by 0x1BEEF66: KSPSolve<br>
> (itfunc.c:446) ==8222==    by 0x13F95E8: kspsolve_ (itfuncf.c:219)<br>
> ==8222==    by 0xC5E51F: petsolv_ (PETSOLV.F:375) ==8222==    by<br>
> 0x612C35: flowsol_ng_ (flowsol_ng.F:275) ==8222==  Uninitialised<br>
> value was created by a stack allocation ==8222==    at 0x216E97F:<br>
> SearchPath (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222== ==8222== Conditional jump or move depends on uninitialised<br>
> value(s) ==8222==    at 0x216E9D1: SearchPath (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x216E1EC: mkl_cfg_file (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x216AC14: DDOT (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==    by 0x1291100: VecNorm_Seq (bvec2.c:239) ==8222==    by<br>
> 0x126F431: VecNorm (rvector.c:166) ==8222==    by 0x127039D:<br>
> VecNormalize (rvector.c:261) ==8222==    by 0x1405507:<br>
> KSPGMRESCycle (gmres.c:127) ==8222==    by 0x140695F:<br>
> KSPSolve_GMRES (gmres.c:231) ==8222==    by 0x1BEEF66: KSPSolve<br>
> (itfunc.c:446) ==8222==    by 0x13F95E8: kspsolve_ (itfuncf.c:219)<br>
> ==8222==    by 0xC5E51F: petsolv_ (PETSOLV.F:375) ==8222==    by<br>
> 0x612C35: flowsol_ng_ (flowsol_ng.F:275) ==8222==  Uninitialised<br>
> value was created by a stack allocation ==8222==    at 0x216E97F:<br>
> SearchPath (in<br>
> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64_DEBUG)<br>
> ==8222==<br>
><br>
><br>
><br>
> On Mon, May 5, 2014 at 10:03 AM, Barry Smith <<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>><br>
> wrote:<br>
><br>
>><br>
>> If you run valgrind with the debug version of the libraries it<br>
>> will provide more information about the line numbers where the<br>
>> problem occurred, etc. recommend doing that.<br>
>><br>
>> Either your initial solution or right hand side has garbage in it<br>
>> or the wrong blas may be being linked in. But there is definitely<br>
>> a problem<br>
>><br>
>> Barry<br>
>><br>
>> On May 5, 2014, at 8:28 AM, Song Gao <<a href="mailto:song.gao2@mail.mcgill.ca">song.gao2@mail.mcgill.ca</a>><br>
>> wrote:<br>
>><br>
>>> Thanks for reply. What do you mean by a “happier” state? I<br>
>>> check the<br>
>> converged solution (the one which call kspgmressetrestart twice),<br>
>> the solution should be correct.<br>
>>><br>
>>> I run with valgrind both codes (one call kspgmressetrestart<br>
>>> once and<br>
>> another call kspgmressetrestart twice)<br>
>>> Both of them have the errors:                          what<br>
>>> does this<br>
>> mean? Thank you in advance.<br>
>>> ==7858== Conditional jump or move depends on uninitialised<br>
>>> value(s) ==7858==    at 0xE71DFB: SearchPath (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xE71640: mkl_cfg_file (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xE6E068: DDOT (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x73281A: VecNorm_Seq (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x730BF4: VecNormalize (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x7BC5A8: KSPSolve_GMRES (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xB8A06E: KSPSolve (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x7B659F: kspsolve_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x5EAE84: petsolv_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x4ECD46: flowsol_ng_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x507E4E: iterprc_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x51D1B4: solnalg_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858== ==7858== Conditional jump or move depends on<br>
>>> uninitialised value(s) ==7858==    at 0xE71E25: SearchPath (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xE71640: mkl_cfg_file (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xE6E068: DDOT (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x73281A: VecNorm_Seq (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x730BF4: VecNormalize (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x7BC5A8: KSPSolve_GMRES (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0xB8A06E: KSPSolve (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x7B659F: kspsolve_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x5EAE84: petsolv_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x4ECD46: flowsol_ng_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x507E4E: iterprc_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==    by 0x51D1B4: solnalg_ (in<br>
>> /home/cfd/sgao/mycodes/fensapngnew/bin/fensapMPI_LINUX64)<br>
>>> ==7858==<br>
>>><br>
>>><br>
>>> On Fri, May 2, 2014 at 7:25 PM, Barry Smith<br>
>>> <<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>> wrote:<br>
>>><br>
>>> On May 2, 2014, at 5:29 PM, Song Gao <<a href="mailto:song.gao2@mail.mcgill.ca">song.gao2@mail.mcgill.ca</a>><br>
>>> wrote:<br>
>>><br>
>>>> Thanks for your quick reply.  What confused me is that why<br>
>>>> would the<br>
>> code works fine if I reset the gmres restart number by recalling<br>
>> kspgmressetrestart just before kspsolve?<br>
>>><br>
>>> It isn’t really working. Something is going wrong (run with<br>
>>> valgrind)<br>
>> and setting that restart number and starting the solver just puts<br>
>> it in a “happier” state so it seems to make more progress.<br>
>>><br>
>>> Barry<br>
>>><br>
>>>><br>
>>>> Sent from my iPhone<br>
>>>><br>
>>>>> On May 2, 2014, at 6:03 PM, "Barry Smith"<br>
>>>>> <<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>> wrote:<br>
>>>>><br>
>>>>><br>
>>>>> Your shell matrix is buggy in some way. Whenever the<br>
>>>>> residual norm<br>
>> jumps like crazy at a restart it means that something is wrong<br>
>> with the operator.<br>
>>>>><br>
>>>>> Barry<br>
>>>>><br>
>>>>>> On May 2, 2014, at 4:41 PM, Song Gao<br>
>>>>>> <<a href="mailto:song.gao2@mail.mcgill.ca">song.gao2@mail.mcgill.ca</a>><br>
>> wrote:<br>
>>>>>><br>
>>>>>> Dear PETSc users,<br>
>>>>>><br>
>>>>>> I'm solving a linear system in KSP and trying to setup<br>
>>>>>> the solver in<br>
>> codes. But I feel strange because my codes don't converge unless<br>
>> I call KSPGMRESSetRestart twice.<br>
>>>>>><br>
>>>>>> My codes looks like<br>
>>>>>><br>
>>>>>> call KSPSetOperators ( pet_solv, pet_mat_mf_shell,<br>
>>>>>> pet_matp,<br>
>> DIFFERENT_NONZERO_PATTERN, ierpetsc )<br>
>>>>>> call KSPSetType ( pet_solv, 'gmres', ierpetsc ) call<br>
>>>>>> KSPGMRESSetRestart ( pet_solv, 30, ierpetsc ) call<br>
>>>>>> KSPGetPC ( pet_solv, pet_precon, ierpetsc ) call<br>
>>>>>> PCSetType ( pet_precon, 'asm', ierpetsc ) call<br>
>>>>>> PCASMSetOverlap ( pet_precon, 1, ierpetsc ) call KSPSetUp<br>
>>>>>> ( pet_solv, ierpetsc ) call PCASMGetSubKSP ( pet_precon,<br>
>>>>>> n_local, first_local,<br>
>> pet_solv_sub, ierpetsc )  ! n_local is one<br>
>>>>>> call KSPGetPC ( pet_solv_sub(1), pet_precon_sub, ierpetsc<br>
>>>>>> ) call PCSetType ( pet_precon_sub, 'jacobi', ierpetsc )<br>
>>>>>> call PCJacobiSetUseRowMax ( pet_precon_sub, ierpetsc )<br>
>>>>>> call KSPSetFromOptions ( pet_solv, ierpetsc ) call<br>
>>>>>> KSPGMRESSetRestart ( pet_solv, 29, ierpetsc )<br>
>>>>>> !<br>
>> adding this line, the codes converge<br>
>>>>>> call KSPSolve ( pet_solv, pet_rhsp, pet_solup, ierpetsc<br>
>>>>>> )<br>
>>>>>><br>
>>>>>> runing with 1 CPU  WITHOUT the line with red color and<br>
>>>>>> the codes<br>
>> don't converge<br>
>>>>>><br>
>>>>>> runtime options:   -ksp_monitor_true_residual -ksp_view 0<br>
>>>>>> KSP preconditioned resid norm 6.585278940829e+00 true<br>
>>>>>> resid norm<br>
>> 9.619278462343e-03 ||r(i)||/||b|| 1.000000000000e+00<br>
>>>>>> 1 KSP preconditioned resid norm 6.585278219510e+00 true<br>
>>>>>> resid norm<br>
>> 9.619278462343e-03 ||r(i)||/||b|| 1.000000000000e+00<br>
>>>>>> 2 KSP preconditioned resid norm 2.198638170622e+00 true<br>
>>>>>> resid norm<br>
>> 1.365132713014e-01 ||r(i)||/||b|| 1.419163317039e+01<br>
>>>>>> 3 KSP preconditioned resid norm 1.599896387215e+00 true<br>
>>>>>> resid norm<br>
>> 1.445988845022e-01 ||r(i)||/||b|| 1.503219654865e+01<br>
>>>>>> ....... 28 KSP preconditioned resid norm<br>
>>>>>> 4.478466011191e-01 true resid norm<br>
>> 1.529879309381e-01 ||r(i)||/||b|| 1.590430420920e+01<br>
>>>>>> 29 KSP preconditioned resid norm 4.398129572260e-01 true<br>
>>>>>> resid norm<br>
>> 1.530132924055e-01 ||r(i)||/||b|| 1.590694073413e+01<br>
>>>>>> 30 KSP preconditioned resid norm 2.783227613716e+12 true<br>
>>>>>> resid norm<br>
>> 1.530369123550e-01 ||r(i)||/||b|| 1.590939621450e+01<br>
>>>>>><br>
>>>>>> KSP Object: 1 MPI processes type: gmres GMRES:<br>
>>>>>> restart=30, using Classical (unmodified) Gram-Schmidt<br>
>> Orthogonalization with no iterative refinement<br>
>>>>>> GMRES: happy breakdown tolerance 1e-30 maximum<br>
>>>>>> iterations=10000, initial guess is zero tolerances:<br>
>>>>>> relative=1e-05, absolute=1e-50, divergence=10000 left<br>
>>>>>> preconditioning using PRECONDITIONED norm type for<br>
>>>>>> convergence test PC Object: 1 MPI processes type: asm<br>
>>>>>> Additive Schwarz: total subdomain blocks = 1, amount of<br>
>>>>>> overlap = 1 Additive Schwarz: restriction/interpolation<br>
>>>>>> type - RESTRICT [0] number of local blocks = 1 Local<br>
>>>>>> solve info for each block is in the following KSP and PC<br>
>> objects:<br>
>>>>>> - - - - - - - - - - - - - - - - - - [0] local block<br>
>>>>>> number 0, size = 22905 KSP Object:    (sub_)     1 MPI<br>
>>>>>> processes type: preonly maximum iterations=10000, initial<br>
>>>>>> guess is zero tolerances:  relative=1e-05,<br>
>>>>>> absolute=1e-50, divergence=10000 left preconditioning<br>
>>>>>> using NONE norm type for convergence test PC Object:<br>
>>>>>> (sub_)     1 MPI processes type: jacobi linear system<br>
>>>>>> matrix = precond matrix: Matrix Object:       1 MPI<br>
>>>>>> processes type: seqbaij rows=22905, cols=22905, bs=5<br>
>>>>>> total: nonzeros=785525, allocated nonzeros=785525 total<br>
>>>>>> number of mallocs used during MatSetValues calls =0 block<br>
>>>>>> size is 5 - - - - - - - - - - - - - - - - - - linear<br>
>>>>>> system matrix followed by preconditioner matrix: Matrix<br>
>>>>>> Object:   1 MPI processes type: shell rows=22905,<br>
>>>>>> cols=22905 Matrix Object:   1 MPI processes type:<br>
>>>>>> seqbaij rows=22905, cols=22905, bs=5 total:<br>
>>>>>> nonzeros=785525, allocated nonzeros=785525 total number<br>
>>>>>> of mallocs used during MatSetValues calls =0 block size<br>
>>>>>> is 5 WARNING: zero iteration in iterative solver<br>
>>>>>><br>
>>>>>> runing with 1 CPU  WITH  the line with red color and the<br>
>>>>>> codes<br>
>> converge<br>
>>>>>><br>
>>>>>> runtime options:   -ksp_monitor_true_residual -ksp_view 0<br>
>>>>>> KSP preconditioned resid norm 6.585278940829e+00 true<br>
>>>>>> resid norm<br>
>> 9.619278462343e-03 ||r(i)||/||b|| 1.000000000000e+00<br>
>>>>>> 1 KSP preconditioned resid norm 2.566248171026e+00 true<br>
>>>>>> resid norm<br>
>> 4.841043870812e-03 ||r(i)||/||b|| 5.032647604250e-01<br>
>>>>>> 2 KSP preconditioned resid norm 1.410418402651e+00 true<br>
>>>>>> resid norm<br>
>> 3.347509391208e-03 ||r(i)||/||b|| 3.480000505561e-01<br>
>>>>>> 3 KSP preconditioned resid norm 9.665409287757e-01 true<br>
>>>>>> resid norm<br>
>> 2.289877121679e-03 ||r(i)||/||b|| 2.380508195748e-01<br>
>>>>>> 4 KSP preconditioned resid norm 4.469486152454e-01 true<br>
>>>>>> resid norm<br>
>> 1.283813398084e-03 ||r(i)||/||b|| 1.334625463968e-01<br>
>>>>>> 5 KSP preconditioned resid norm 2.474889829653e-01 true<br>
>>>>>> resid norm<br>
>> 7.956009139680e-04 ||r(i)||/||b|| 8.270900120862e-02<br>
>>>>>> ............ 24 KSP preconditioned resid norm<br>
>>>>>> 9.518780877620e-05 true resid norm<br>
>> 6.273993696172e-07 ||r(i)||/||b|| 6.522312167937e-05<br>
>>>>>> 25 KSP preconditioned resid norm 6.837876679998e-05 true<br>
>>>>>> resid norm<br>
>> 4.612861071815e-07 ||r(i)||/||b|| 4.795433555514e-05<br>
>>>>>> 26 KSP preconditioned resid norm 4.864361942316e-05 true<br>
>>>>>> resid norm<br>
>> 3.394754589076e-07 ||r(i)||/||b|| 3.529115621682e-05<br>
>>>>>> KSP Object: 1 MPI processes type: gmres GMRES:<br>
>>>>>> restart=29, using Classical (unmodified) Gram-Schmidt<br>
>> Orthogonalization with no iterative refinement<br>
>>>>>> GMRES: happy breakdown tolerance 1e-30 maximum<br>
>>>>>> iterations=10000, initial guess is zero tolerances:<br>
>>>>>> relative=1e-05, absolute=1e-50, divergence=10000 left<br>
>>>>>> preconditioning using PRECONDITIONED norm type for<br>
>>>>>> convergence test PC Object: 1 MPI processes type: asm<br>
>>>>>> Additive Schwarz: total subdomain blocks = 1, amount of<br>
>>>>>> overlap = 1 Additive Schwarz: restriction/interpolation<br>
>>>>>> type - RESTRICT [0] number of local blocks = 1 Local<br>
>>>>>> solve info for each block is in the following KSP and PC<br>
>> objects:<br>
>>>>>> - - - - - - - - - - - - - - - - - - [0] local block<br>
>>>>>> number 0, size = 22905 KSP Object:    (sub_)     1 MPI<br>
>>>>>> processes type: preonly maximum iterations=10000, initial<br>
>>>>>> guess is zero tolerances:  relative=1e-05,<br>
>>>>>> absolute=1e-50, divergence=10000 left preconditioning<br>
>>>>>> using NONE norm type for convergence test PC Object:<br>
>>>>>> (sub_)     1 MPI processes type: jacobi linear system<br>
>>>>>> matrix = precond matrix: Matrix Object:       1 MPI<br>
>>>>>> processes type: seqbaij rows=22905, cols=22905, bs=5<br>
>>>>>> total: nonzeros=785525, allocated nonzeros=785525 total<br>
>>>>>> number of mallocs used during MatSetValues calls =0 block<br>
>>>>>> size is 5 - - - - - - - - - - - - - - - - - - linear<br>
>>>>>> system matrix followed by preconditioner matrix: Matrix<br>
>>>>>> Object:   1 MPI processes type: shell rows=22905,<br>
>>>>>> cols=22905 Matrix Object:   1 MPI processes type:<br>
>>>>>> seqbaij rows=22905, cols=22905, bs=5 total:<br>
>>>>>> nonzeros=785525, allocated nonzeros=785525 total number<br>
>>>>>> of mallocs used during MatSetValues calls =0 block size<br>
>>>>>> is 5 WARNING: zero iteration in iterative solver<br>
>>>>>><br>
>>>>>><br>
>>>>>> What would be my error here? Thank you.<br>
>>>>><br>
>>><br>
>>><br>
>><br>
>><br>
><br>
</div></div>-----BEGIN PGP SIGNATURE-----<br>
Version: GnuPG v2.0.22 (GNU/Linux)<br>
Comment: Using GnuPG with Thunderbird - <a href="http://www.enigmail.net/" target="_blank">http://www.enigmail.net/</a><br>
<br>
iQEcBAEBAgAGBQJTZ8t/AAoJED+FDAHgGz19xocH/i2A2Ccw3BTypkyicy6dqAQE<br>
wgVqukXnBI//adXHSe60uQBtL4OmjMiGOSt/Egye6N2QF/29yMzNdwTmHw6DZSRC<br>
C8yyPpVMEOPwB2WED0ui+IGSYq6JglOVplT5lCf2T99Y/gZNiqugCNz0ydnA5KnP<br>
9W0O1yO2/2xgE4bMEibVhFIPsaXKGyTLv1ZjZLgdnbnTYFbCZqJk+9lVOOpQlqBZ<br>
mrzE+9GjO+0+BucEwI4Ekw4b9PI/Yctl0JW7zx+ZmviRsXRF4L3aO2SeFm1fBSnh<br>
XPIreXBNB6vyAmPFBx9TJZHQFucJIsFLHrlrea6onePKBx4Eg3JcpOlX8GdJr5w=<br>
=MkKg<br>
-----END PGP SIGNATURE-----<br>
</blockquote></div><br></div>