<div dir="ltr"><div>I have a definite block 2x2 system and I figured it'd be good to apply the PCFIELDSPLIT functionality with Schur complement, as described in Section 4.5 of the manual.</div><div><br></div><div>The A00 block of my matrix is very small so I figured I'd specify a direct solver (i.e. MUMPS) for that block.</div><div><br></div><div>So I did the following:</div><div>- PCFieldSplitSetIS to specify the indices of the two splits</div><div>- PCFieldSplitGetSubKSP to get the two KSP objects, and to set the solver and PC types for each (MUMPS for A00, ILU+CG for A11)</div><div>- I set -pc_fieldsplit_schur_fact_type full</div><div><br></div><div>Below I have pasted the output of "-ksp_view -ksp_monitor -log_view" for a test case. It seems to converge well, but I'm concerned about the speed (about 90 seconds, vs. about 1 second if I use a direct solver for the entire system). I just wanted to check if I'm setting this up in a good way?</div><div><br></div><div>Many thanks,</div><div>David</div><div><br></div><div>-----------------------------------------------------------------------------------</div><div><br></div><div><div>  0 KSP Residual norm 5.405774214400e+04 </div><div>  1 KSP Residual norm 1.849649014371e+02 </div><div>  2 KSP Residual norm 7.462775074989e-02 </div><div>  3 KSP Residual norm 2.680497175260e-04 </div><div>KSP Object: 1 MPI processes</div><div>  type: cg</div><div>  maximum iterations=1000</div><div>  tolerances:  relative=1e-06, absolute=1e-50, divergence=10000.</div><div>  left preconditioning</div><div>  using nonzero initial guess</div><div>  using PRECONDITIONED norm type for convergence test</div><div>PC Object: 1 MPI processes</div><div>  type: fieldsplit</div><div>    FieldSplit with Schur preconditioner, factorization FULL</div><div>    Preconditioner for the Schur complement formed from A11</div><div>    Split info:</div><div>    Split number 0 Defined by IS</div><div>    Split number 1 Defined by IS</div><div>    KSP solver for A00 block</div><div>      KSP Object:      (fieldsplit_RB_split_)       1 MPI processes</div><div>        type: preonly</div><div>        maximum iterations=10000, initial guess is zero</div><div>        tolerances:  relative=1e-05, absolute=1e-50, divergence=10000.</div><div>        left preconditioning</div><div>        using NONE norm type for convergence test</div><div>      PC Object:      (fieldsplit_RB_split_)       1 MPI processes</div><div>        type: cholesky</div><div>          Cholesky: out-of-place factorization</div><div>          tolerance for zero pivot 2.22045e-14</div><div>          matrix ordering: natural</div><div>          factor fill ratio given 0., needed 0.</div><div>            Factored matrix follows:</div><div>              Mat Object:               1 MPI processes</div><div>                type: seqaij</div><div>                rows=324, cols=324</div><div>                package used to perform factorization: mumps</div><div>                total: nonzeros=3042, allocated nonzeros=3042</div><div>                total number of mallocs used during MatSetValues calls =0</div><div>                  MUMPS run parameters:</div><div>                    SYM (matrix type):                   2 </div><div>                    PAR (host participation):            1 </div><div>                    ICNTL(1) (output for error):         6 </div><div>                    ICNTL(2) (output of diagnostic msg): 0 </div><div>                    ICNTL(3) (output for global info):   0 </div><div>                    ICNTL(4) (level of printing):        0 </div><div>                    ICNTL(5) (input mat struct):         0 </div><div>                    ICNTL(6) (matrix prescaling):        7 </div><div>                    ICNTL(7) (sequentia matrix ordering):7 </div><div>                    ICNTL(8) (scalling strategy):        77 </div><div>                    ICNTL(10) (max num of refinements):  0 </div><div>                    ICNTL(11) (error analysis):          0 </div><div>                    ICNTL(12) (efficiency control):                         0 </div><div>                    ICNTL(13) (efficiency control):                         0 </div><div>                    ICNTL(14) (percentage of estimated workspace increase): 20 </div><div>                    ICNTL(18) (input mat struct):                           0 </div><div>                    ICNTL(19) (Shur complement info):                       0 </div><div>                    ICNTL(20) (rhs sparse pattern):                         0 </div><div>                    ICNTL(21) (solution struct):                            0 </div><div>                    ICNTL(22) (in-core/out-of-core facility):               0 </div><div>                    ICNTL(23) (max size of memory can be allocated locally):0 </div><div>                    ICNTL(24) (detection of null pivot rows):               0 </div><div>                    ICNTL(25) (computation of a null space basis):          0 </div><div>                    ICNTL(26) (Schur options for rhs or solution):          0 </div><div>                    ICNTL(27) (experimental parameter):                     -24 </div><div>                    ICNTL(28) (use parallel or sequential ordering):        1 </div><div>                    ICNTL(29) (parallel ordering):                          0 </div><div>                    ICNTL(30) (user-specified set of entries in inv(A)):    0 </div><div>                    ICNTL(31) (factors is discarded in the solve phase):    0 </div><div>                    ICNTL(33) (compute determinant):                        0 </div><div>                    CNTL(1) (relative pivoting threshold):      0.01 </div><div>                    CNTL(2) (stopping criterion of refinement): 1.49012e-08 </div><div>                    CNTL(3) (absolute pivoting threshold):      0. </div><div>                    CNTL(4) (value of static pivoting):         -1. </div><div>                    CNTL(5) (fixation for null pivots):         0. </div><div>                    RINFO(1) (local estimated flops for the elimination after analysis): </div><div>                      [0] 29394. </div><div>                    RINFO(2) (local estimated flops for the assembly after factorization): </div><div>                      [0]  1092. </div><div>                    RINFO(3) (local estimated flops for the elimination after factorization): </div><div>                      [0]  29394. </div><div>                    INFO(15) (estimated size of (in MB) MUMPS internal data for running numerical factorization): </div><div>                    [0] 1 </div><div>                    INFO(16) (size of (in MB) MUMPS internal data used during numerical factorization): </div><div>                      [0] 1 </div><div>                    INFO(23) (num of pivots eliminated on this processor after factorization): </div><div>                      [0] 324 </div><div>                    RINFOG(1) (global estimated flops for the elimination after analysis): 29394. </div><div>                    RINFOG(2) (global estimated flops for the assembly after factorization): 1092. </div><div>                    RINFOG(3) (global estimated flops for the elimination after factorization): 29394. </div><div>                    (RINFOG(12) RINFOG(13))*2^INFOG(34) (determinant): (0.,0.)*(2^0)</div><div>                    INFOG(3) (estimated real workspace for factors on all processors after analysis): 3888 </div><div>                    INFOG(4) (estimated integer workspace for factors on all processors after analysis): 2067 </div><div>                    INFOG(5) (estimated maximum front size in the complete tree): 12 </div><div>                    INFOG(6) (number of nodes in the complete tree): 53 </div><div>                    INFOG(7) (ordering option effectively use after analysis): 2 </div><div>                    INFOG(8) (structural symmetry in percent of the permuted matrix after analysis): 100 </div><div>                    INFOG(9) (total real/complex workspace to store the matrix factors after factorization): 3888 </div><div>                    INFOG(10) (total integer space store the matrix factors after factorization): 2067 </div><div>                    INFOG(11) (order of largest frontal matrix after factorization): 12 </div><div>                    INFOG(12) (number of off-diagonal pivots): 0 </div><div>                    INFOG(13) (number of delayed pivots after factorization): 0 </div><div>                    INFOG(14) (number of memory compress after factorization): 0 </div><div>                    INFOG(15) (number of steps of iterative refinement after solution): 0 </div><div>                    INFOG(16) (estimated size (in MB) of all MUMPS internal data for factorization after analysis: value on the most memory consuming processor): 1 </div><div>                    INFOG(17) (estimated size of all MUMPS internal data for factorization after analysis: sum over all processors): 1 </div><div>                    INFOG(18) (size of all MUMPS internal data allocated during factorization: value on the most memory consuming processor): 1 </div><div>                    INFOG(19) (size of all MUMPS internal data allocated during factorization: sum over all processors): 1 </div><div>                    INFOG(20) (estimated number of entries in the factors): 3042 </div><div>                    INFOG(21) (size in MB of memory effectively used during factorization - value on the most memory consuming processor): 1 </div><div>                    INFOG(22) (size in MB of memory effectively used during factorization - sum over all processors): 1 </div><div>                    INFOG(23) (after analysis: value of ICNTL(6) effectively used): 5 </div><div>                    INFOG(24) (after analysis: value of ICNTL(12) effectively used): 1 </div><div>                    INFOG(25) (after factorization: number of pivots modified by static pivoting): 0 </div><div>                    INFOG(28) (after factorization: number of null pivots encountered): 0</div><div>                    INFOG(29) (after factorization: effective number of entries in the factors (sum over all processors)): 3042</div><div>                    INFOG(30, 31) (after solution: size in Mbytes of memory used during solution phase): 0, 0</div><div>                    INFOG(32) (after analysis: type of analysis done): 1</div><div>                    INFOG(33) (value used for ICNTL(8)): -2</div><div>                    INFOG(34) (exponent of the determinant if determinant is requested): 0</div><div>        linear system matrix = precond matrix:</div><div>        Mat Object:        (fieldsplit_RB_split_)         1 MPI processes</div><div>          type: seqaij</div><div>          rows=324, cols=324</div><div>          total: nonzeros=5760, allocated nonzeros=5760</div><div>          total number of mallocs used during MatSetValues calls =0</div><div>            using I-node routines: found 108 nodes, limit used is 5</div><div>    KSP solver for S = A11 - A10 inv(A00) A01 </div><div>      KSP Object:      (fieldsplit_FE_split_)       1 MPI processes</div><div>        type: cg</div><div>        maximum iterations=10000, initial guess is zero</div><div>        tolerances:  relative=1e-05, absolute=1e-50, divergence=10000.</div><div>        left preconditioning</div><div>        using PRECONDITIONED norm type for convergence test</div><div>      PC Object:      (fieldsplit_FE_split_)       1 MPI processes</div><div>        type: bjacobi</div><div>          block Jacobi: number of blocks = 1</div><div>          Local solve is same for all blocks, in the following KSP and PC objects:</div><div>          KSP Object:          (fieldsplit_FE_split_sub_)           1 MPI processes</div><div>            type: preonly</div><div>            maximum iterations=10000, initial guess is zero</div><div>            tolerances:  relative=1e-05, absolute=1e-50, divergence=10000.</div><div>            left preconditioning</div><div>            using NONE norm type for convergence test</div><div>          PC Object:          (fieldsplit_FE_split_sub_)           1 MPI processes</div><div>            type: ilu</div><div>              ILU: out-of-place factorization</div><div>              0 levels of fill</div><div>              tolerance for zero pivot 2.22045e-14</div><div>              matrix ordering: natural</div><div>              factor fill ratio given 1., needed 1.</div><div>                Factored matrix follows:</div><div>                  Mat Object:                   1 MPI processes</div><div>                    type: seqaij</div><div>                    rows=28476, cols=28476</div><div>                    package used to perform factorization: petsc</div><div>                    total: nonzeros=1017054, allocated nonzeros=1017054</div><div>                    total number of mallocs used during MatSetValues calls =0</div><div>                      using I-node routines: found 9492 nodes, limit used is 5</div><div>            linear system matrix = precond matrix:</div><div>            Mat Object:            (fieldsplit_FE_split_)             1 MPI processes</div><div>              type: seqaij</div><div>              rows=28476, cols=28476</div><div>              total: nonzeros=1017054, allocated nonzeros=1017054</div><div>              total number of mallocs used during MatSetValues calls =0</div><div>                using I-node routines: found 9492 nodes, limit used is 5</div><div>        linear system matrix followed by preconditioner matrix:</div><div>        Mat Object:        (fieldsplit_FE_split_)         1 MPI processes</div><div>          type: schurcomplement</div><div>          rows=28476, cols=28476</div><div>            Schur complement A11 - A10 inv(A00) A01</div><div>            A11</div><div>              Mat Object:              (fieldsplit_FE_split_)               1 MPI processes</div><div>                type: seqaij</div><div>                rows=28476, cols=28476</div><div>                total: nonzeros=1017054, allocated nonzeros=1017054</div><div>                total number of mallocs used during MatSetValues calls =0</div><div>                  using I-node routines: found 9492 nodes, limit used is 5</div><div>            A10</div><div>              Mat Object:               1 MPI processes</div><div>                type: seqaij</div><div>                rows=28476, cols=324</div><div>                total: nonzeros=936, allocated nonzeros=936</div><div>                total number of mallocs used during MatSetValues calls =0</div><div>                  using I-node routines: found 5717 nodes, limit used is 5</div><div>            KSP of A00</div><div>              KSP Object:              (fieldsplit_RB_split_)               1 MPI processes</div><div>                type: preonly</div><div>                maximum iterations=10000, initial guess is zero</div><div>                tolerances:  relative=1e-05, absolute=1e-50, divergence=10000.</div><div>                left preconditioning</div><div>                using NONE norm type for convergence test</div><div>              PC Object:              (fieldsplit_RB_split_)               1 MPI processes</div><div>                type: cholesky</div><div>                  Cholesky: out-of-place factorization</div><div>                  tolerance for zero pivot 2.22045e-14</div><div>                  matrix ordering: natural</div><div>                  factor fill ratio given 0., needed 0.</div><div>                    Factored matrix follows:</div><div>                      Mat Object:                       1 MPI processes</div><div>                        type: seqaij</div><div>                        rows=324, cols=324</div><div>                        package used to perform factorization: mumps</div><div>                        total: nonzeros=3042, allocated nonzeros=3042</div><div>                        total number of mallocs used during MatSetValues calls =0</div><div>                          MUMPS run parameters:</div><div>                            SYM (matrix type):                   2 </div><div>                            PAR (host participation):            1 </div><div>                            ICNTL(1) (output for error):         6 </div><div>                            ICNTL(2) (output of diagnostic msg): 0 </div><div>                            ICNTL(3) (output for global info):   0 </div><div>                            ICNTL(4) (level of printing):        0 </div><div>                            ICNTL(5) (input mat struct):         0 </div><div>                            ICNTL(6) (matrix prescaling):        7 </div><div>                            ICNTL(7) (sequentia matrix ordering):7 </div><div>                            ICNTL(8) (scalling strategy):        77 </div><div>                            ICNTL(10) (max num of refinements):  0 </div><div>                            ICNTL(11) (error analysis):          0 </div><div>                            ICNTL(12) (efficiency control):                         0 </div><div>                            ICNTL(13) (efficiency control):                         0 </div><div>                            ICNTL(14) (percentage of estimated workspace increase): 20 </div><div>                            ICNTL(18) (input mat struct):                           0 </div><div>                            ICNTL(19) (Shur complement info):                       0 </div><div>                            ICNTL(20) (rhs sparse pattern):                         0 </div><div>                            ICNTL(21) (solution struct):                            0 </div><div>                            ICNTL(22) (in-core/out-of-core facility):               0 </div><div>                            ICNTL(23) (max size of memory can be allocated locally):0 </div><div>                            ICNTL(24) (detection of null pivot rows):               0 </div><div>                            ICNTL(25) (computation of a null space basis):          0 </div><div>                            ICNTL(26) (Schur options for rhs or solution):          0 </div><div>                            ICNTL(27) (experimental parameter):                     -24 </div><div>                            ICNTL(28) (use parallel or sequential ordering):        1 </div><div>                            ICNTL(29) (parallel ordering):                          0 </div><div>                            ICNTL(30) (user-specified set of entries in inv(A)):    0 </div><div>                            ICNTL(31) (factors is discarded in the solve phase):    0 </div><div>                            ICNTL(33) (compute determinant):                        0 </div><div>                            CNTL(1) (relative pivoting threshold):      0.01 </div><div>                            CNTL(2) (stopping criterion of refinement): 1.49012e-08 </div><div>                            CNTL(3) (absolute pivoting threshold):      0. </div><div>                            CNTL(4) (value of static pivoting):         -1. </div><div>                            CNTL(5) (fixation for null pivots):         0. </div><div>                            RINFO(1) (local estimated flops for the elimination after analysis): </div><div>                              [0] 29394. </div><div>                            RINFO(2) (local estimated flops for the assembly after factorization): </div><div>                              [0]  1092. </div><div>                            RINFO(3) (local estimated flops for the elimination after factorization): </div><div>                              [0]  29394. </div><div>                            INFO(15) (estimated size of (in MB) MUMPS internal data for running numerical factorization): </div><div>                            [0] 1 </div><div>                            INFO(16) (size of (in MB) MUMPS internal data used during numerical factorization): </div><div>                              [0] 1 </div><div>                            INFO(23) (num of pivots eliminated on this processor after factorization): </div><div>                              [0] 324 </div><div>                            RINFOG(1) (global estimated flops for the elimination after analysis): 29394. </div><div>                            RINFOG(2) (global estimated flops for the assembly after factorization): 1092. </div><div>                            RINFOG(3) (global estimated flops for the elimination after factorization): 29394. </div><div>                            (RINFOG(12) RINFOG(13))*2^INFOG(34) (determinant): (0.,0.)*(2^0)</div><div>                            INFOG(3) (estimated real workspace for factors on all processors after analysis): 3888 </div><div>                            INFOG(4) (estimated integer workspace for factors on all processors after analysis): 2067 </div><div>                            INFOG(5) (estimated maximum front size in the complete tree): 12 </div><div>                            INFOG(6) (number of nodes in the complete tree): 53 </div><div>                            INFOG(7) (ordering option effectively use after analysis): 2 </div><div>                            INFOG(8) (structural symmetry in percent of the permuted matrix after analysis): 100 </div><div>                            INFOG(9) (total real/complex workspace to store the matrix factors after factorization): 3888 </div><div>                            INFOG(10) (total integer space store the matrix factors after factorization): 2067 </div><div>                            INFOG(11) (order of largest frontal matrix after factorization): 12 </div><div>                            INFOG(12) (number of off-diagonal pivots): 0 </div><div>                            INFOG(13) (number of delayed pivots after factorization): 0 </div><div>                            INFOG(14) (number of memory compress after factorization): 0 </div><div>                            INFOG(15) (number of steps of iterative refinement after solution): 0 </div><div>                            INFOG(16) (estimated size (in MB) of all MUMPS internal data for factorization after analysis: value on the most memory consuming processor): 1 </div><div>                            INFOG(17) (estimated size of all MUMPS internal data for factorization after analysis: sum over all processors): 1 </div><div>                            INFOG(18) (size of all MUMPS internal data allocated during factorization: value on the most memory consuming processor): 1 </div><div>                            INFOG(19) (size of all MUMPS internal data allocated during factorization: sum over all processors): 1 </div><div>                            INFOG(20) (estimated number of entries in the factors): 3042 </div><div>                            INFOG(21) (size in MB of memory effectively used during factorization - value on the most memory consuming processor): 1 </div><div>                            INFOG(22) (size in MB of memory effectively used during factorization - sum over all processors): 1 </div><div>                            INFOG(23) (after analysis: value of ICNTL(6) effectively used): 5 </div><div>                            INFOG(24) (after analysis: value of ICNTL(12) effectively used): 1 </div><div>                            INFOG(25) (after factorization: number of pivots modified by static pivoting): 0 </div><div>                            INFOG(28) (after factorization: number of null pivots encountered): 0</div><div>                            INFOG(29) (after factorization: effective number of entries in the factors (sum over all processors)): 3042</div><div>                            INFOG(30, 31) (after solution: size in Mbytes of memory used during solution phase): 0, 0</div><div>                            INFOG(32) (after analysis: type of analysis done): 1</div><div>                            INFOG(33) (value used for ICNTL(8)): -2</div><div>                            INFOG(34) (exponent of the determinant if determinant is requested): 0</div><div>                linear system matrix = precond matrix:</div><div>                Mat Object:                (fieldsplit_RB_split_)                 1 MPI processes</div><div>                  type: seqaij</div><div>                  rows=324, cols=324</div><div>                  total: nonzeros=5760, allocated nonzeros=5760</div><div>                  total number of mallocs used during MatSetValues calls =0</div><div>                    using I-node routines: found 108 nodes, limit used is 5</div><div>            A01</div><div>              Mat Object:               1 MPI processes</div><div>                type: seqaij</div><div>                rows=324, cols=28476</div><div>                total: nonzeros=936, allocated nonzeros=936</div><div>                total number of mallocs used during MatSetValues calls =0</div><div>                  using I-node routines: found 67 nodes, limit used is 5</div><div>        Mat Object:        (fieldsplit_FE_split_)         1 MPI processes</div><div>          type: seqaij</div><div>          rows=28476, cols=28476</div><div>          total: nonzeros=1017054, allocated nonzeros=1017054</div><div>          total number of mallocs used during MatSetValues calls =0</div><div>            using I-node routines: found 9492 nodes, limit used is 5</div><div>  linear system matrix = precond matrix:</div><div>  Mat Object:  ()   1 MPI processes</div><div>    type: seqaij</div><div>    rows=28800, cols=28800</div><div>    total: nonzeros=1024686, allocated nonzeros=1024794</div><div>    total number of mallocs used during MatSetValues calls =0</div><div>      using I-node routines: found 9600 nodes, limit used is 5</div><div><br></div><div><br></div><div>---------------------------------------------- PETSc Performance Summary: ----------------------------------------------</div><div><br></div><div>/home/dknez/akselos-dev/scrbe/build/bin/fe_solver-opt_real on a arch-linux2-c-opt named david-Lenovo with 1 processor, by dknez Wed Jan 11 16:16:47 2017</div><div>Using Petsc Release Version 3.7.3, unknown </div><div><br></div><div>                         Max       Max/Min        Avg      Total </div><div>Time (sec):           9.179e+01      1.00000   9.179e+01</div><div>Objects:              1.990e+02      1.00000   1.990e+02</div><div>Flops:                1.634e+11      1.00000   1.634e+11  1.634e+11</div><div>Flops/sec:            1.780e+09      1.00000   1.780e+09  1.780e+09</div><div>MPI Messages:         0.000e+00      0.00000   0.000e+00  0.000e+00</div><div>MPI Message Lengths:  0.000e+00      0.00000   0.000e+00  0.000e+00</div><div>MPI Reductions:       0.000e+00      0.00000</div><div><br></div><div>Flop counting convention: 1 flop = 1 real number operation of type (multiply/divide/add/subtract)</div><div>                            e.g., VecAXPY() for real vectors of length N --> 2N flops</div><div>                            and VecAXPY() for complex vectors of length N --> 8N flops</div><div><br></div><div>Summary of Stages:   ----- Time ------  ----- Flops -----  --- Messages ---  -- Message Lengths --  -- Reductions --</div><div>                        Avg     %Total     Avg     %Total   counts   %Total     Avg         %Total   counts   %Total </div><div> 0:      Main Stage: 9.1787e+01 100.0%  1.6336e+11 100.0%  0.000e+00   0.0%  0.000e+00        0.0%  0.000e+00   0.0% </div><div><br></div><div>------------------------------------------------------------------------------------------------------------------------</div><div>See the 'Profiling' chapter of the users' manual for details on interpreting output.</div><div>Phase summary info:</div><div>   Count: number of times phase was executed</div><div>   Time and Flops: Max - maximum over all processors</div><div>                   Ratio - ratio of maximum to minimum over all processors</div><div>   Mess: number of messages sent</div><div>   Avg. len: average message length (bytes)</div><div>   Reduct: number of global reductions</div><div>   Global: entire computation</div><div>   Stage: stages of a computation. Set stages with PetscLogStagePush() and PetscLogStagePop().</div><div>      %T - percent time in this phase         %F - percent flops in this phase</div><div>      %M - percent messages in this phase     %L - percent message lengths in this phase</div><div>      %R - percent reductions in this phase</div><div>   Total Mflop/s: 10e-6 * (sum of flops over all processors)/(max time over all processors)</div><div>------------------------------------------------------------------------------------------------------------------------</div><div>Event                Count      Time (sec)     Flops                             --- Global ---  --- Stage ---   Total</div><div>                   Max Ratio  Max     Ratio   Max  Ratio  Mess   Avg len Reduct  %T %F %M %L %R  %T %F %M %L %R Mflop/s</div><div>------------------------------------------------------------------------------------------------------------------------</div><div><br></div><div>--- Event Stage 0: Main Stage</div><div><br></div><div>VecDot                42 1.0 2.4080e-05 1.0 8.53e+03 1.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0   354</div><div>VecTDot            74012 1.0 1.2440e+00 1.0 4.22e+09 1.0 0.0e+00 0.0e+00 0.0e+00  1  3  0  0  0   1  3  0  0  0  3388</div><div>VecNorm            37020 1.0 8.3580e-01 1.0 2.11e+09 1.0 0.0e+00 0.0e+00 0.0e+00  1  1  0  0  0   1  1  0  0  0  2523</div><div>VecScale           37008 1.0 3.5800e-01 1.0 1.05e+09 1.0 0.0e+00 0.0e+00 0.0e+00  0  1  0  0  0   0  1  0  0  0  2944</div><div>VecCopy            37034 1.0 2.5754e-02 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>VecSet             74137 1.0 3.0537e-01 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>VecAXPY            74029 1.0 1.7233e+00 1.0 4.22e+09 1.0 0.0e+00 0.0e+00 0.0e+00  2  3  0  0  0   2  3  0  0  0  2446</div><div>VecAYPX            37001 1.0 1.2214e+00 1.0 2.11e+09 1.0 0.0e+00 0.0e+00 0.0e+00  1  1  0  0  0   1  1  0  0  0  1725</div><div>VecAssemblyBegin      68 1.0 2.0432e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>VecAssemblyEnd        68 1.0 2.5988e-05 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>VecScatterBegin       48 1.0 4.6921e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatMult            37017 1.0 4.1269e+01 1.0 7.65e+10 1.0 0.0e+00 0.0e+00 0.0e+00 45 47  0  0  0  45 47  0  0  0  1853</div><div>MatMultAdd         37015 1.0 3.3638e+01 1.0 7.53e+10 1.0 0.0e+00 0.0e+00 0.0e+00 37 46  0  0  0  37 46  0  0  0  2238</div><div>MatSolve           74021 1.0 4.6602e+01 1.0 7.42e+10 1.0 0.0e+00 0.0e+00 0.0e+00 51 45  0  0  0  51 45  0  0  0  1593</div><div>MatLUFactorNum         1 1.0 1.7209e-02 1.0 2.44e+07 1.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0  1420</div><div>MatCholFctrSym         1 1.0 8.8310e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatCholFctrNum         1 1.0 3.6907e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatILUFactorSym        1 1.0 3.7372e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatAssemblyBegin      29 1.0 2.1458e-06 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatAssemblyEnd        29 1.0 9.9473e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatGetRow          58026 1.0 2.8155e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatGetRowIJ            2 1.0 0.0000e+00 0.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatGetSubMatrice       6 1.0 1.5399e-02 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatGetOrdering         2 1.0 3.0112e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatZeroEntries         6 1.0 2.9490e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>MatView                7 1.0 3.4356e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>KSPSetUp               4 1.0 9.4891e-05 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>KSPSolve               1 1.0 8.8793e+01 1.0 1.63e+11 1.0 0.0e+00 0.0e+00 0.0e+00 97100  0  0  0  97100  0  0  0  1840</div><div>PCSetUp                4 1.0 3.8375e-02 1.0 2.44e+07 1.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0   637</div><div>PCSetUpOnBlocks        5 1.0 2.1250e-02 1.0 2.44e+07 1.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0  1150</div><div>PCApply                5 1.0 8.8789e+01 1.0 1.63e+11 1.0 0.0e+00 0.0e+00 0.0e+00 97100  0  0  0  97100  0  0  0  1840</div><div>KSPSolve_FS_0          5 1.0 7.5364e-04 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>KSPSolve_FS_Schu       5 1.0 8.8785e+01 1.0 1.63e+11 1.0 0.0e+00 0.0e+00 0.0e+00 97100  0  0  0  97100  0  0  0  1840</div><div>KSPSolve_FS_Low        5 1.0 2.1019e-03 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00  0  0  0  0  0   0  0  0  0  0     0</div><div>------------------------------------------------------------------------------------------------------------------------</div><div><br></div><div>Memory usage is given in bytes:</div><div><br></div><div>Object Type          Creations   Destructions     Memory  Descendants' Mem.</div><div>Reports information only for process 0.</div><div><br></div><div>--- Event Stage 0: Main Stage</div><div><br></div><div>              Vector    91             91      9693912     0.</div><div>      Vector Scatter    24             24        15936     0.</div><div>           Index Set    51             51       537888     0.</div><div>   IS L to G Mapping     3              3       240408     0.</div><div>              Matrix    13             13     64097868     0.</div><div>       Krylov Solver     6              6         7888     0.</div><div>      Preconditioner     6              6         6288     0.</div><div>              Viewer     1              0            0     0.</div><div>    Distributed Mesh     1              1         4624     0.</div><div>Star Forest Bipartite Graph     2              2         1616     0.</div><div>     Discrete System     1              1          872     0.</div><div>========================================================================================================================</div><div>Average time to get PetscTime(): 0.</div><div>#PETSc Option Table entries:</div><div>-ksp_monitor</div><div>-ksp_view</div><div>-log_view</div><div>#End of PETSc Option Table entries</div><div>Compiled without FORTRAN kernels</div><div>Compiled with full precision matrices (default)</div><div>sizeof(short) 2 sizeof(int) 4 sizeof(long) 8 sizeof(void*) 8 sizeof(PetscScalar) 8 sizeof(PetscInt) 4</div><div>Configure options: --with-shared-libraries=1 --with-debugging=0 --download-suitesparse --download-blacs --download-ptscotch=yes --with-blas-lapack-dir=/opt/intel/system_studio_2015.2.050/mkl --CXXFLAGS=-Wl,--no-as-needed --download-scalapack --download-mumps --download-metis --prefix=/home/dknez/software/libmesh_install/opt_real/petsc --download-hypre --download-ml</div><div>-----------------------------------------</div><div>Libraries compiled on Wed Sep 21 17:38:52 2016 on david-Lenovo </div><div>Machine characteristics: Linux-4.4.0-38-generic-x86_64-with-Ubuntu-16.04-xenial</div><div>Using PETSc directory: /home/dknez/software/petsc-src</div><div>Using PETSc arch: arch-linux2-c-opt</div><div>-----------------------------------------</div><div><br></div><div>Using C compiler: mpicc  -fPIC  -Wall -Wwrite-strings -Wno-strict-aliasing -Wno-unknown-pragmas -fvisibility=hidden -g -O  ${COPTFLAGS} ${CFLAGS}</div><div>Using Fortran compiler: mpif90  -fPIC -Wall -ffree-line-length-0 -Wno-unused-dummy-argument -g -O   ${FOPTFLAGS} ${FFLAGS} </div><div>-----------------------------------------</div><div><br></div><div>Using include paths: -I/home/dknez/software/petsc-src/arch-linux2-c-opt/include -I/home/dknez/software/petsc-src/include -I/home/dknez/software/petsc-src/include -I/home/dknez/software/petsc-src/arch-linux2-c-opt/include -I/home/dknez/software/libmesh_install/opt_real/petsc/include -I/usr/lib/openmpi/include/openmpi/opal/mca/event/libevent2021/libevent -I/usr/lib/openmpi/include/openmpi/opal/mca/event/libevent2021/libevent/include -I/usr/lib/openmpi/include -I/usr/lib/openmpi/include/openmpi</div><div>-----------------------------------------</div><div><br></div><div>Using C linker: mpicc</div><div>Using Fortran linker: mpif90</div><div>Using libraries: -Wl,-rpath,/home/dknez/software/petsc-src/arch-linux2-c-opt/lib -L/home/dknez/software/petsc-src/arch-linux2-c-opt/lib -lpetsc -Wl,-rpath,/home/dknez/software/libmesh_install/opt_real/petsc/lib -L/home/dknez/software/libmesh_install/opt_real/petsc/lib -lcmumps -ldmumps -lsmumps -lzmumps -lmumps_common -lpord -lmetis -lHYPRE -Wl,-rpath,/usr/lib/openmpi/lib -L/usr/lib/openmpi/lib -Wl,-rpath,/usr/lib/gcc/x86_64-linux-gnu/5 -L/usr/lib/gcc/x86_64-linux-gnu/5 -Wl,-rpath,/usr/lib/x86_64-linux-gnu -L/usr/lib/x86_64-linux-gnu -Wl,-rpath,/lib/x86_64-linux-gnu -L/lib/x86_64-linux-gnu -lmpi_cxx -lstdc++ -lscalapack -lml -lmpi_cxx -lstdc++ -lumfpack -lklu -lcholmod -lbtf -lccolamd -lcolamd -lcamd -lamd -lsuitesparseconfig -Wl,-rpath,/opt/intel/system_studio_2015.2.050/mkl/lib/intel64 -L/opt/intel/system_studio_2015.2.050/mkl/lib/intel64 -lmkl_intel_lp64 -lmkl_sequential -lmkl_core -lpthread -lm -lhwloc -lptesmumps -lptscotch -lptscotcherr -lscotch -lscotcherr -lX11 -lm -lmpi_usempif08 -lmpi_usempi_ignore_tkr -lmpi_mpifh -lgfortran -lm -lgfortran -lm -lquadmath -lm -lmpi_cxx -lstdc++ -lrt -lm -lpthread -lz -Wl,-rpath,/usr/lib/openmpi/lib -L/usr/lib/openmpi/lib -Wl,-rpath,/usr/lib/gcc/x86_64-linux-gnu/5 -L/usr/lib/gcc/x86_64-linux-gnu/5 -Wl,-rpath,/usr/lib/x86_64-linux-gnu -L/usr/lib/x86_64-linux-gnu -Wl,-rpath,/lib/x86_64-linux-gnu -L/lib/x86_64-linux-gnu -Wl,-rpath,/usr/lib/x86_64-linux-gnu -L/usr/lib/x86_64-linux-gnu -ldl -Wl,-rpath,/usr/lib/openmpi/lib -lmpi -lgcc_s -lpthread -ldl </div><div>-----------------------------------------</div></div><div><br></div>
</div>