<div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; ">Thank you very much for your reply. The&nbsp;-log_summary is shown as follows:</div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><br></div><div><div>************************************************************************************************************************</div><div>*** &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; WIDEN YOUR WINDOW TO 120 CHARACTERS. &nbsp;Use 'enscript -r -fCourier9' to print this document &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;***</div><div>************************************************************************************************************************</div><div><br></div><div>---------------------------------------------- PETSc Performance Summary: ----------------------------------------------</div><div><br></div><div>./linearElasticity on a linux-gnu named c0409 with 64 processors, by fdkong Sat Mar 26 12:44:53 2011</div><div>Using Petsc Release Version 3.1.0, Patch 7, Mon Dec 20 14:26:37 CST 2010</div><div><br></div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Max &nbsp; &nbsp; &nbsp; Max/Min &nbsp; &nbsp; &nbsp; &nbsp;Avg &nbsp; &nbsp; &nbsp;Total&nbsp;</div><div>Time (sec): &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.459e+02 &nbsp; &nbsp; &nbsp;1.00012 &nbsp; 3.459e+02</div><div>Objects: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.120e+02 &nbsp; &nbsp; &nbsp;1.00000 &nbsp; 2.120e+02</div><div>Flops: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;3.205e+08 &nbsp; &nbsp; &nbsp;1.40451 &nbsp; 2.697e+08 &nbsp;1.726e+10</div><div>Flops/sec: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;9.268e+05 &nbsp; &nbsp; &nbsp;1.40451 &nbsp; 7.799e+05 &nbsp;4.991e+07</div><div>Memory: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3.065e+06 &nbsp; &nbsp; &nbsp;1.25099 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1.721e+08</div><div>MPI Messages: &nbsp; &nbsp; &nbsp; &nbsp; 1.182e+04 &nbsp; &nbsp; &nbsp;3.60692 &nbsp; 8.252e+03 &nbsp;5.281e+05</div><div>MPI Message Lengths: &nbsp;1.066e+07 &nbsp; &nbsp; &nbsp;5.78633 &nbsp; 4.086e+02 &nbsp;2.158e+08</div><div>MPI Reductions: &nbsp; &nbsp; &nbsp; 4.365e+03 &nbsp; &nbsp; &nbsp;1.00000</div><div><br></div><div>Flop counting convention: 1 flop = 1 real number operation of type (multiply/divide/add/subtract)</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;e.g., VecAXPY() for real vectors of length N --&gt; 2N flops</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;and VecAXPY() for complex vectors of length N --&gt; 8N flops</div><div><br></div><div>Summary of Stages: &nbsp; ----- Time ------ &nbsp;----- Flops ----- &nbsp;--- Messages --- &nbsp;-- Message Lengths -- &nbsp;-- Reductions --</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Avg &nbsp; &nbsp; %Total &nbsp; &nbsp; Avg &nbsp; &nbsp; %Total &nbsp; counts &nbsp; %Total &nbsp; &nbsp; Avg &nbsp; &nbsp; &nbsp; &nbsp; %Total &nbsp; counts &nbsp; %Total&nbsp;</div><div>&nbsp;0: &nbsp; &nbsp; &nbsp;Main Stage: 3.4587e+02 100.0% &nbsp;1.7263e+10 100.0% &nbsp;5.281e+05 100.0% &nbsp;4.086e+02 &nbsp; &nbsp; &nbsp;100.0% &nbsp;4.278e+03 &nbsp;98.0%&nbsp;</div><div><br></div><div>------------------------------------------------------------------------------------------------------------------------</div><div>See the 'Profiling' chapter of the users' manual for details on interpreting output.</div><div>Phase summary info:</div><div>&nbsp;&nbsp; Count: number of times phase was executed</div><div>&nbsp;&nbsp; Time and Flops: Max - maximum over all processors</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Ratio - ratio of maximum to minimum over all processors</div><div>&nbsp;&nbsp; Mess: number of messages sent</div><div>&nbsp;&nbsp; Avg. len: average message length</div><div>&nbsp;&nbsp; Reduct: number of global reductions</div><div>&nbsp;&nbsp; Global: entire computation</div><div>&nbsp;&nbsp; Stage: stages of a computation. Set stages with PetscLogStagePush() and PetscLogStagePop().</div><div>&nbsp;&nbsp; &nbsp; &nbsp;%T - percent time in this phase &nbsp; &nbsp; &nbsp; &nbsp; %F - percent flops in this phase</div><div>&nbsp;&nbsp; &nbsp; &nbsp;%M - percent messages in this phase &nbsp; &nbsp; %L - percent message lengths in this phase</div><div>&nbsp;&nbsp; &nbsp; &nbsp;%R - percent reductions in this phase</div><div>&nbsp;&nbsp; Total Mflop/s: 10e-6 * (sum of flops over all processors)/(max time over all processors)</div><div>------------------------------------------------------------------------------------------------------------------------</div><div><br></div><div><br></div><div>&nbsp;&nbsp; &nbsp; &nbsp;##########################################################</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;WARNING!!! &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; This code was compiled with a debugging option, &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; To get timing results run config/configure.py &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; using --with-debugging=no, the performance will &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; be generally two or three times faster. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;# &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;#</div><div>&nbsp;&nbsp; &nbsp; &nbsp;##########################################################</div><div><br></div><div><br></div><div>Event &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Count &nbsp; &nbsp; &nbsp;Time (sec) &nbsp; &nbsp; Flops &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; --- Global --- &nbsp;--- Stage --- &nbsp; Total</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Max Ratio &nbsp;Max &nbsp; &nbsp; Ratio &nbsp; Max &nbsp;Ratio &nbsp;Mess &nbsp; Avg len Reduct &nbsp;%T %F %M %L %R &nbsp;%T %F %M %L %R Mflop/s</div><div>------------------------------------------------------------------------------------------------------------------------</div><div><br></div><div>--- Event Stage 0: Main Stage</div><div><br></div><div>VecMDot &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3195 1.0 8.1583e-01 2.7 2.23e+07 1.4 0.0e+00 0.0e+00 3.6e+02 &nbsp;0 &nbsp;7 &nbsp;0 &nbsp;0 &nbsp;8 &nbsp; 0 &nbsp;7 &nbsp;0 &nbsp;0 &nbsp;8 &nbsp;1480</div><div>VecNorm &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4335 1.0 1.2828e+00 2.0 1.13e+07 1.4 0.0e+00 0.0e+00 7.8e+02 &nbsp;0 &nbsp;4 &nbsp;0 &nbsp;0 18 &nbsp; 0 &nbsp;4 &nbsp;0 &nbsp;0 18 &nbsp; 475</div><div>VecScale &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4192 1.0 2.3778e-02 1.3 5.47e+06 1.4 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;2 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;2 &nbsp;0 &nbsp;0 &nbsp;0 12415</div><div>VecCopy &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;995 1.0 5.0113e-03 2.4 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecSet &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2986 1.0 6.1189e-03 1.6 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecAXPY &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1140 1.0 8.8003e-03 1.3 2.78e+06 1.3 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;1 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;1 &nbsp;0 &nbsp;0 &nbsp;0 17310</div><div>VecAYPX &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 71 1.0 8.8720e-04 1.7 8.09e+04 1.2 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;5286</div><div>VecWAXPY &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 2 1.0 2.3029e-05 1.7 2.28e+03 1.2 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;5736</div><div>VecMAXPY &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4192 1.0 5.6833e-02 1.4 3.08e+07 1.4 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 10 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 10 &nbsp;0 &nbsp;0 &nbsp;0 29299</div><div>VecAssemblyBegin &nbsp; &nbsp; &nbsp; 3 1.0 5.8301e-03 2.3 0.00e+00 0.0 0.0e+00 0.0e+00 9.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecAssemblyEnd &nbsp; &nbsp; &nbsp; &nbsp; 3 1.0 1.3023e-05 1.9 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecScatterBegin &nbsp; &nbsp; 2279 1.0 5.6063e-02 3.6 0.00e+00 0.0 5.1e+05 3.7e+02 0.0e+00 &nbsp;0 &nbsp;0 96 88 &nbsp;0 &nbsp; 0 &nbsp;0 96 88 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecScatterEnd &nbsp; &nbsp; &nbsp; 2279 1.0 4.8437e-0122.3 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>VecNormalize &nbsp; &nbsp; &nbsp; &nbsp;4118 1.0 8.3514e-01 1.9 1.61e+07 1.4 0.0e+00 0.0e+00 5.7e+02 &nbsp;0 &nbsp;5 &nbsp;0 &nbsp;0 13 &nbsp; 0 &nbsp;5 &nbsp;0 &nbsp;0 13 &nbsp;1043</div><div>MatMult &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3482 1.0 1.0133e+00 2.1 1.18e+08 1.4 2.1e+05 2.8e+02 0.0e+00 &nbsp;0 37 39 27 &nbsp;0 &nbsp; 0 37 39 27 &nbsp;0 &nbsp;6271</div><div>MatMultAdd &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;71 1.0 9.5340e-02 3.9 1.04e+06 1.3 2.3e+04 1.8e+02 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;4 &nbsp;2 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;4 &nbsp;2 &nbsp;0 &nbsp; 611</div><div>MatMultTranspose &nbsp; &nbsp; 142 1.0 2.2453e-01 1.6 2.09e+06 1.3 4.6e+04 1.8e+02 2.8e+02 &nbsp;0 &nbsp;1 &nbsp;9 &nbsp;4 &nbsp;7 &nbsp; 0 &nbsp;1 &nbsp;9 &nbsp;4 &nbsp;7 &nbsp; 519</div><div>MatSolve &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;3550 1.0 5.7862e-01 1.4 1.26e+08 1.4 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 39 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 39 &nbsp;0 &nbsp;0 &nbsp;0 11693</div><div>MatLUFactorNum &nbsp; &nbsp; &nbsp; &nbsp; 2 1.0 4.7321e-03 1.5 3.25e+05 1.5 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;3655</div><div>MatILUFactorSym &nbsp; &nbsp; &nbsp; &nbsp;2 1.0 1.1258e-03 1.3 0.00e+00 0.0 0.0e+00 0.0e+00 6.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatAssemblyBegin &nbsp; &nbsp; &nbsp; 5 1.0 1.6813e-0120.3 0.00e+00 0.0 1.4e+03 2.3e+03 6.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;2 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;2 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatAssemblyEnd &nbsp; &nbsp; &nbsp; &nbsp; 5 1.0 2.3137e-02 1.3 0.00e+00 0.0 1.9e+03 6.1e+01 2.8e+01 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp; &nbsp; 0</div><div>MatGetRowIJ &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2 1.0 4.9662e-06 4.9 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatGetSubMatrice &nbsp; &nbsp; &nbsp; 2 1.0 2.5637e-0132.3 0.00e+00 0.0 3.2e+03 2.1e+03 1.0e+01 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;3 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;1 &nbsp;3 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatGetOrdering &nbsp; &nbsp; &nbsp; &nbsp; 2 1.0 1.2449e-03 1.3 0.00e+00 0.0 0.0e+00 0.0e+00 8.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatIncreaseOvrlp &nbsp; &nbsp; &nbsp; 2 1.0 9.9950e-03 1.1 0.00e+00 0.0 1.3e+03 1.8e+02 6.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MatZeroEntries &nbsp; &nbsp; &nbsp; &nbsp; 2 1.0 8.5980e-05 3.2 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MeshView &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4 1.0 5.9615e+00 1.0 0.00e+00 0.0 1.8e+03 3.1e+03 0.0e+00 &nbsp;2 &nbsp;0 &nbsp;0 &nbsp;3 &nbsp;0 &nbsp; 2 &nbsp;0 &nbsp;0 &nbsp;3 &nbsp;0 &nbsp; &nbsp; 0</div><div>MeshGetGlobalScatter &nbsp; &nbsp; &nbsp; 3 1.0 4.1654e-02 1.2 0.00e+00 0.0 9.7e+02 6.0e+01 1.8e+01 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MeshAssembleMatrix &nbsp; &nbsp;1606 1.1 6.7121e-02 2.2 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>MeshUpdateOperator &nbsp; &nbsp;2168 1.1 2.7389e-01 4.6 0.00e+00 0.0 0.0e+00 0.0e+00 6.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>SectionRealView &nbsp; &nbsp; &nbsp; &nbsp;2 1.0 5.9061e-01199.5 0.00e+00 0.0 2.5e+02 4.1e+03 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>PCSetUp &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5 1.0 2.8859e-01 7.4 3.25e+05 1.5 5.8e+03 1.2e+03 4.6e+01 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;3 &nbsp;1 &nbsp; 0 &nbsp;0 &nbsp;1 &nbsp;3 &nbsp;1 &nbsp; &nbsp;60</div><div>PCSetUpOnBlocks &nbsp; &nbsp; &nbsp;284 1.0 8.3234e-03 1.3 3.25e+05 1.5 0.0e+00 0.0e+00 2.6e+01 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;2078</div><div>PCApply &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 71 1.0 4.8040e+00 1.0 3.13e+08 1.4 4.8e+05 3.8e+02 4.0e+03 &nbsp;1 97 91 84 92 &nbsp; 1 97 91 84 94 &nbsp;3503</div><div>KSPGMRESOrthog &nbsp; &nbsp; &nbsp;3195 1.0 8.5857e-01 2.5 4.46e+07 1.4 0.0e+00 0.0e+00 3.6e+02 &nbsp;0 14 &nbsp;0 &nbsp;0 &nbsp;8 &nbsp; 0 14 &nbsp;0 &nbsp;0 &nbsp;8 &nbsp;2814</div><div>KSPSetup &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 6 1.0 2.9785e-02 1.0 0.00e+00 0.0 0.0e+00 0.0e+00 1.2e+01 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>KSPSolve &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1 1.0 5.0004e+00 1.0 3.20e+08 1.4 5.1e+05 3.7e+02 4.2e+03 &nbsp;1100 96 87 95 &nbsp; 1100 96 87 97 &nbsp;3449</div><div>MeshDestroy &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5 1.0 3.1958e-011357.6 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>DistributeMesh &nbsp; &nbsp; &nbsp; &nbsp; 1 1.0 4.5183e+00 1.1 0.00e+00 0.0 5.0e+02 9.5e+03 0.0e+00 &nbsp;1 &nbsp;0 &nbsp;0 &nbsp;2 &nbsp;0 &nbsp; 1 &nbsp;0 &nbsp;0 &nbsp;2 &nbsp;0 &nbsp; &nbsp; 0</div><div>PartitionCreate &nbsp; &nbsp; &nbsp; &nbsp;2 1.0 3.5427e-01 1.8 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>PartitionClosure &nbsp; &nbsp; &nbsp; 2 1.0 1.2162e+0011594.1 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>DistributeCoords &nbsp; &nbsp; &nbsp; 2 1.0 8.2849e-01 2.8 0.00e+00 0.0 5.0e+02 3.0e+03 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;0 &nbsp; &nbsp; 0</div><div>DistributeLabels &nbsp; &nbsp; &nbsp; 2 1.0 1.6425e+00 1.0 0.00e+00 0.0 3.8e+02 6.9e+02 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp; &nbsp; 0</div><div>CreateOverlap &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2 1.0 1.2166e+00 1.1 0.00e+00 0.0 0.0e+00 0.0e+00 0.0e+00 &nbsp;0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;0 &nbsp; 0 &nbsp;0 &nbsp;0 &nbsp;1 &nbsp;0 &nbsp; &nbsp; 0</div><div>------------------------------------------------------------------------------------------------------------------------</div><div><br></div><div>Memory usage is given in bytes:</div><div><br></div><div>Object Type &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Creations &nbsp; Destructions &nbsp; &nbsp; Memory &nbsp;Descendants' Mem.</div><div>Reports information only for process 0.</div><div><br></div><div>--- Event Stage 0: Main Stage</div><div><br></div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Viewer &nbsp; &nbsp; 4 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp; &nbsp; &nbsp; 1344 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Index Set &nbsp; &nbsp;29 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 29 &nbsp; &nbsp; &nbsp; &nbsp;89664 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Vec &nbsp; 132 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;131 &nbsp; &nbsp; &nbsp;1098884 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; Vec Scatter &nbsp; &nbsp; 8 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;8 &nbsp; &nbsp; &nbsp; &nbsp; 4320 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Matrix &nbsp; &nbsp;13 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 13 &nbsp; &nbsp; &nbsp;1315884 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Mesh &nbsp; &nbsp; 5 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5 &nbsp; &nbsp; &nbsp; &nbsp; 1680 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; &nbsp; SectionReal &nbsp; &nbsp; 7 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5 &nbsp; &nbsp; &nbsp; &nbsp; 1320 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp;Preconditioner &nbsp; &nbsp; 7 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;7 &nbsp; &nbsp; &nbsp; &nbsp; 3132 &nbsp; &nbsp; 0</div><div>&nbsp;&nbsp; &nbsp; &nbsp; Krylov Solver &nbsp; &nbsp; 7 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;7 &nbsp; &nbsp; &nbsp; &nbsp;88364 &nbsp; &nbsp; 0</div><div>========================================================================================================================</div><div>Average time to get PetscTime(): 1.90735e-07</div><div>Average time for MPI_Barrier(): 0.000211</div><div>Average time for zero size MPI_Send(): 1.4998e-05</div><div>#PETSc Option Table entries:</div><div>-log_summary</div><div>#End of PETSc Option Table entries</div><div>Compiled without FORTRAN kernels</div><div>Compiled with full precision matrices (default)</div><div>sizeof(short) 2 sizeof(int) 4 sizeof(long) 4 sizeof(void*) 4 sizeof(PetscScalar) 8</div><div>Configure run at: Wed Mar &nbsp;9 20:22:08 2011</div><div>Configure options: --with-clanguage=cxx --with-shared=1 --with-dynamic=1 --download-f-blas-lapack=1 --with-mpi-dir=/bwfs/software/ictce3.2/impi/3.2.0.011 --download-boost=1 --download-fiat=1 --download-generator=1 --download-triangle=1 --download-tetgen=1 --download-chaco=1 --download-parmetis=1 --download-zoltan=1 --with-sieve=1 --with-opt-sieve=1 --with-exodusii-dir=/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/exodusii-4.75 --with-netcdf-dir=/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/netcdf-4.1.1</div><div>-----------------------------------------</div><div>Libraries compiled on Wed Mar &nbsp;9 20:22:27 CST 2011 on console&nbsp;</div><div>Machine characteristics: Linux console 2.6.18-128.el5 #1 SMP Wed Dec 17 11:41:38 EST 2008 x86_64 x86_64 x86_64 GNU/Linux&nbsp;</div><div>Using PETSc directory: /bwfs/home/fdkong/petsc/petsc-3.1-p7</div><div>Using PETSc arch: linux-gnu-c-debug</div><div>-----------------------------------------</div><div>Using C compiler: /bwfs/software/ictce3.2/impi/3.2.0.011/bin/mpicxx -Wall -Wwrite-strings -Wno-strict-aliasing -g &nbsp; -fPIC &nbsp;&nbsp;</div><div>Using Fortran compiler: /bwfs/software/ictce3.2/impi/3.2.0.011/bin/mpif90 -fPIC -Wall -Wno-unused-variable -g &nbsp; &nbsp;</div><div>-----------------------------------------</div><div>Using include paths: -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/include -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/include -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/include -I/export/ictce3.2/impi/3.2.0.011/include/gfortran/4.1.0 -I/export/ictce3.2/impi/3.2.0.011/include -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/include/sieve -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/Boost/ -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/exodusii-4.75/include -I/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/netcdf-4.1.1/include -I/bwfs/software/ictce3.2/impi/3.2.0.011/include &nbsp;</div><div>------------------------------------------</div><div>Using C linker: /bwfs/software/ictce3.2/impi/3.2.0.011/bin/mpicxx -Wall -Wwrite-strings -Wno-strict-aliasing -g&nbsp;</div><div>Using Fortran linker: /bwfs/software/ictce3.2/impi/3.2.0.011/bin/mpif90 -fPIC -Wall -Wno-unused-variable -g &nbsp;</div><div>Using libraries: -Wl,-rpath,/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/lib -L/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/lib -lpetsc &nbsp; &nbsp; &nbsp; -Wl,-rpath,/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/lib -L/bwfs/home/fdkong/petsc/petsc-3.1-p7/linux-gnu-c-debug/lib -lzoltan -ltriangle -lX11 -lchaco -lparmetis -lmetis -ltetgen -lflapack -lfblas -Wl,-rpath,/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/exodusii-4.75/lib -L/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/exodusii-4.75/lib -lexoIIv2for -lexoIIv2c -Wl,-rpath,/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/netcdf-4.1.1/lib -L/bwfs/home/fdkong/petsc/petsc-3.1-p7/externalpackages/netcdf-4.1.1/lib -lnetcdf -Wl,-rpath,/export/ictce3.2/impi/3.2.0.011/lib -L/export/ictce3.2/impi/3.2.0.011/lib -Wl,-rpath,/usr/lib/gcc/x86_64-redhat-linux/4.1.2/32 -L/usr/lib/gcc/x86_64-redhat-linux/4.1.2/32 -ldl -lmpi -lmpigf -lmpigi -lrt -lpthread -lgcc_s -Wl,-rpath,/bwfs/home/fdkong/petsc/petsc-3.1-p7/-Xlinker -lmpi_dbg -lgfortran -lm -Wl,-rpath,/opt/intel/mpi-rt/3.2 -lm -lmpigc4 -lmpi_dbg -lstdc++ -lmpigc4 -lmpi_dbg -lstdc++ -ldl -lmpi -lmpigf -lmpigi -lrt -lpthread -lgcc_s -ldl &nbsp;</div><div>------------------------------------------</div></div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><br></div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><br></div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><br></div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><sign signid="2"><div style="color:#909090;font-family:Arial Narrow;font-size:12px">------------------</div><div style="font-size:14px;font-family:Verdana;color:#000;"><div>Fande Kong</div><div>ShenZhen Institutes of Advanced Technology</div><div>Chinese Academy of Sciences</div>
</div></sign></div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; ">&nbsp;</div><div style="color: rgb(0, 0, 0); font-family: Verdana; font-size: 14px; "><includetail><div>&nbsp;</div><div>&nbsp;</div><div style="font:Verdana normal 14px;color:#000;"><div style="FONT-SIZE: 12px;FONT-FAMILY: Arial Narrow;padding:2px 0 2px 0;">------------------&nbsp;Original&nbsp;------------------</div><div style="FONT-SIZE: 12px;background:#efefef;padding:8px;"><div id="menu_sender"><b>From: </b>&nbsp;"knepley"&lt;knepley@gmail.com&gt;;</div><div><b>Date: </b>&nbsp;Mon, Mar 28, 2011 02:19 PM</div><div><b>To: </b>&nbsp;"PETSc users list"&lt;petsc-users@mcs.anl.gov&gt;; <wbr></div><div><b>Cc: </b>&nbsp;"fdkong"&lt;fd.kong@siat.ac.cn&gt;; <wbr></div><div><b>Subject: </b>&nbsp;Re: [petsc-users] Generation, refinement of the mesh (Sieve mesh) isvery slow!</div></div><div>&nbsp;</div>
<div dir="ltr">1) Always send the output of -log_summary when asking a performance question<div><br></div><div>2) There are implementations that are optimized for different things. Its possible to</div><div>�� �optimize mesh handling for a cells-vertices mesh, but not if you need edges and</div>
<div>�� �faces generated.</div><div><br></div><div>3) I am out of the country. I can look at the performance when I get back.</div><div><br></div><div>�� Matt</div><div><br><div class="gmail_quote">On Mon, Mar 28, 2011 at 1:06 AM, fdkong <span dir="ltr">&lt;<a href="mailto:fd.kong@siat.ac.cn">fd.kong@siat.ac.cn</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div style="color:rgb(0, 0, 0);font-family:Verdana;font-size:14px">Hi everyone</div><div style="color:rgb(0, 0, 0);font-family:Verdana;font-size:14px">
�� I have developed my application based on the sieve mesh object in the Pestc. And now,�I encountered some �serious problems.�</div><div style="color:rgb(0, 0, 0);font-family:Verdana;font-size:14px">�1. The generation of mesh�takes a lot of time, run very slowly. The following code is used:</div>
<div>����� �double lower[2] = {-1.0, -1.0};</div><div>�� � � �double upper[2] = {1.0, 1.0};</div><div>�� � � �int � �edges[2] = {256,256};</div><div>�� � � �mB = ALE::MeshBuilder&lt;ALE::Mesh&gt;::createSquareBoundary(comm, lower, upper, edges, debug);</div>
<div><div>��ALE::ISieveConverter::convertMesh(*mB, *meshBd, renumbering, false);</div><div>�� � �ierr = PetscPrintf(PETSC_COMM_WORLD," End build convertMesh �\n");CHKERRQ(ierr);</div><div>�� � �ierr = MeshSetMesh(boundary, meshBd);CHKERRQ(ierr);</div>
<div>�� � �ierr = PetscPrintf(PETSC_COMM_WORLD," Begin build MeshGenerate �\n");CHKERRQ(ierr);</div><div><br></div><div>�� � �ierr = MeshGenerate(boundary,interpolate, &amp;mesh);CHKERRQ(ierr);</div></div><div>���</div>
<div>�� 2. The refinement of mesh is also very slow. Th code:</div><div>�� ��refinementLimit=0.0001;</div><div>�� �if (refinementLimit &gt; 0.0)�</div><div>�� �{</div><div>�� � �Mesh refinedMesh;</div><div><br></div><div>
�� � �ierr = MeshRefine(mesh, refinementLimit,interpolate, &amp;refinedMesh);CHKERRQ(ierr);</div><div>�� � �ierr = MeshDestroy(mesh);CHKERRQ(ierr);</div><div>�� � �mesh = refinedMesh;</div><div>�� �}</div><div><br></div><div>
�� �3. The distribution of mesh is also very slow. The code:</div><div>�� ��if (size &gt; 1)�</div><div>�� �{</div><div>�� � �Mesh parallelMesh;</div><div><br></div><div>�� � �//ierr = DistributeMeshnew(mesh, "chao", &amp;parallelMesh);CHKERRQ(ierr);</div>
<div>�� � �ierr = DistributeMeshnew(mesh, "parmetis", &amp;parallelMesh);CHKERRQ(ierr);</div><div>�� � �ierr = MeshDestroy(mesh);CHKERRQ(ierr);</div><div>�� � �mesh = parallelMesh;</div><div>�� �}.</div><div>���</div>
<div>�� �Does anyone encounter these similar problem? If anyone can help, thank you very much! �</div><div>��</div><div>�� And I wonder to consult which parallel mesh can work �with Petsc very well, when we develop some complex problem?�</div>
<div>���</div><div>�� ��</div><div style="font-size:14px;font-family:Verdana;color:rgb(0, 0, 0)"><div style="color:#909090;font-family:Arial Narrow;font-size:12px">------------------</div><div style="font-size:14px;font-family:Verdana;color:#000">
<div>Fande Kong</div><div>ShenZhen Institutes of Advanced Technology</div><div>Chinese Academy of Sciences</div>
</div></div><div style="color:rgb(0, 0, 0);font-family:Verdana;font-size:14px">�</div></blockquote></div><br><br clear="all"><br>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>
</div></div>

</div></includetail></div>