<div dir="ltr"><div><span style="font-size:12.8000001907349px">'A serial job in MATLAB for the same matrices takes < 60GB. '</span><br></div><div><span style="font-size:12.8000001907349px">Can you run this case in serial? If so, try petsc, superlu or mumps to make sure the matrix is non-singular.</span></div><div><br></div>Both mumps and superlu_dist show crash in MatFactorNumeric(). Mumps gives error<div>[16]PETSC ERROR: Error reported by MUMPS in numerical factorization phase: Cannot allocate required memory 65710 megabytes.</div><div><br></div><div>Does your code work for smaller problems?</div><div>Try using more processors?</div><div><br></div><div>Why use such huge '<span style="font-size:12.8000001907349px">-mat_mumps_icntl_14 200000' (percentage of estimated workspace increase)? The default is 20. Try 40?</span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div>Superlu_dist usually uses less memory than mumps, but it also crashes. I guess something wrong with your matrix. Is it singular? </div><div>Run superlu_dist on a slightly smaller matrix with option '-mat_superlu_dist_statprint' which displays memory usage info., e.g.,<br></div><div><br></div><div><div>petsc/src/ksp/ksp/examples/tutorials (maint)</div><div>$ mpiexec -n 2 ./ex2 -pc_type lu -pc_factor_mat_solver_package superlu_dist -mat_superlu_dist_statprint</div><div><span class="" style="white-space:pre">     </span>Nonzeros in L       560</div><div><span class="" style="white-space:pre"> </span>Nonzeros in U       560</div><div><span class="" style="white-space:pre"> </span>nonzeros in L+U     1064</div><div><span class="" style="white-space:pre"> </span>nonzeros in LSUB    248</div><div><span class="" style="white-space:pre">  </span>NUMfact space (MB) sum(procs):  L\U<span class="" style="white-space:pre">      </span>0.01<span class="" style="white-space:pre">      </span>all<span class="" style="white-space:pre">       </span>0.05</div><div><span class="" style="white-space:pre">       </span>Total highmark (MB):  All<span class="" style="white-space:pre">        </span>0.05<span class="" style="white-space:pre">      </span>Avg<span class="" style="white-space:pre">       </span>0.02<span class="" style="white-space:pre">      </span>Max<span class="" style="white-space:pre">       </span>0.02</div><div><span class="" style="white-space:pre">       </span>EQUIL time             0.00</div><div><span class="" style="white-space:pre">  </span>ROWPERM time           0.00</div><div><span class="" style="white-space:pre">   </span>COLPERM time           0.00</div><div><span class="" style="white-space:pre">   </span>SYMBFACT time          0.00</div><div><span class="" style="white-space:pre">   </span>DISTRIBUTE time        0.00</div><div><span class="" style="white-space:pre">    </span>FACTOR time            0.00</div><div><span class="" style="white-space:pre">  </span>Factor flops<span class="" style="white-space:pre">      </span>1.181000e+04<span class="" style="white-space:pre">      </span>Mflops <span class="" style="white-space:pre">   </span>    4.80</div><div><span class="" style="white-space:pre"> </span>SOLVE time             0.00</div><div><span class="" style="white-space:pre">  </span>SOLVE time             0.00</div><div><span class="" style="white-space:pre">  </span>Solve flops<span class="" style="white-space:pre">       </span>2.194000e+03<span class="" style="white-space:pre">      </span>Mflops <span class="" style="white-space:pre">   </span>    4.43</div><div><span class="" style="white-space:pre"> </span>SOLVE time             0.00</div><div><span class="" style="white-space:pre">  </span>Solve flops<span class="" style="white-space:pre">       </span>2.194000e+03<span class="" style="white-space:pre">      </span>Mflops <span class="" style="white-space:pre">   </span>    5.14</div><div>Norm of error 1.18018e-15 iterations 1</div></div><div><br></div><div>Hong<br><div><br></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, May 26, 2015 at 9:03 AM, venkatesh g <span dir="ltr"><<a href="mailto:venkateshgk.j@gmail.com" target="_blank">venkateshgk.j@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div><div><div>I posted a while ago in MUMPS forums but no one seems to reply.<br><br></div>I am solving a large generalized Eigenvalue problem. <br><br></div>I am getting the following error which is attached, after giving the command:<br><br>/cluster/share/venkatesh/petsc-3.5.3/linux-gnu/bin/mpiexec -np 64 -hosts compute-0-4,compute-0-6,compute-0-7,compute-0-8 ./ex7 -f1 a72t -f2 b72t -st_type sinvert -eps_nev 3 -eps_target 0.5 -st_ksp_type preonly -st_pc_type lu -st_pc_factor_mat_solver_package mumps -mat_mumps_icntl_14 200000<br><br></div>IT IS impossible to allocate so much memory per processor.. it is asking like around 70 GB per processor. <br><br></div>A serial job in MATLAB for the same matrices takes < 60GB. <br><br></div><div>After trying out superLU_dist, I have attached the error there also (segmentation error).<br></div><div><br></div>Kindly help me. <br><span class="HOEnZb"><font color="#888888"><br></font></span></div><span class="HOEnZb"><font color="#888888">Venkatesh<br><div><div><div><div><div><div><div><div><br><br></div></div></div></div></div></div></div></div></font></span></div>
</blockquote></div><br></div>