It looks like it&#39;s due to mixing different MPI implementations together (i.e., including the wrong &#39;mpif.h&#39;):<br><a href="http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-July/007559.html">http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-July/007559.html</a><br>
<br>If I recall correctly, MUMPS only uses ScaLAPACK to factor the root separator when it is sufficiently large, and that would explain why it works for him for smaller problems. I would double check that ScaLAPACK, PETSc, and MUMPS are all compiled with the same MPI implementation.<br>
<br>Jack<br><br><div class="gmail_quote">On Wed, Dec 21, 2011 at 4:55 PM, Hong Zhang <span dir="ltr">&lt;<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0pt 0pt 0pt 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Hailong:<br>
I&#39;ve never seen this type of error from MUMPS.<br>
It seems programming bug. Are you sure smaller problem runs correctly?<br>
Use valgrind check it.<br>
<br>
Hong<br>
<br>
&gt; I got the error from MUMPS.<br>
&gt;<br>
&gt; When I run MUMPS (which requring scalapack) with matrix size (n) = 30620,<br>
&gt; nonzeros (nz) = 785860,<br>
&gt; I could run it. And could get result.<br>
&gt; But when I run it with<br>
&gt; nz=3112820<br>
&gt; n =61240<br>
&gt;<br>
&gt;<br>
&gt; I am getting the following error<br>
&gt;<br>
&gt;<br>
&gt; 17 - &lt;NO ERROR MESSAGE&gt; : Could not convert index 1140850688 into a pointer<br>
&gt; The index may be an incorrect argument.<br>
&gt; Possible sources of this problem are a missing &quot;include &#39;mpif.h&#39;&quot;,<br>
&gt; a misspelled MPI object (e.g., MPI_COM_WORLD instead of MPI_COMM_WORLD)<br>
&gt; or a misspelled user variable for an MPI object (e.g.,<br>
&gt; com instead of comm).<br>
&gt; [17] [] Aborting Program!<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; Do you know what happened?<br>
&gt; Is that possible it is running out of memory?<br>
&gt;<br>
&gt; On Wed, Dec 21, 2011 at 7:15 AM, Hong Zhang &lt;<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Direct solvers often require large memory for storing matrix factors.<br>
&gt;&gt; As Jed suggests, you may try superlu_dist.<br>
&gt;&gt;<br>
&gt;&gt; With mumps, I notice you use parallel analysis, which is relative new in<br>
&gt;&gt; mumps.<br>
&gt;&gt; What happens if you use default sequential analysis with<br>
&gt;&gt; different matrix orderings?<br>
&gt;&gt; I usually use matrix ordering &#39;-mat_mumps_icntl_7 2&#39;.<br>
&gt;&gt;<br>
&gt;&gt; Also, you can increase fill ratio,<br>
&gt;&gt; -mat_mumps_icntl_14 &lt;20&gt;: ICNTL(14): percentage of estimated workspace<br>
&gt;&gt; increase (None)<br>
&gt;&gt; i.e., default ration is 20, you may try 50? (I notice that you already use<br>
&gt;&gt; 30).<br>
&gt;&gt;<br>
&gt;&gt; It seems you use 16 CPUs for &quot;a mere couple thousands<br>
&gt;&gt; elements&quot; problems, and mumps &quot;silently freezes&quot;. I do not have this type<br>
&gt;&gt; of experience with mumps. I usually can solve sparse matrix of size<br>
&gt;&gt; 10k with 1 cpu using mumps.<br>
&gt;&gt; When mumps runs out of memory or gets other problems, it terminates<br>
&gt;&gt; execution and dumps out error message,<br>
&gt;&gt; not freezes.<br>
&gt;&gt; Something is wrong here. Use a debugger and figuring out where it freezes.<br>
&gt;&gt;<br>
&gt;&gt; Hong<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Dec 21, 2011 at 7:01 AM, Jed Brown &lt;<a href="mailto:jedbrown@mcs.anl.gov">jedbrown@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt; &gt; -pc_type lu -pc_factor_mat_solver_package superlu_dist<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Dec 21, 2011 6:19 AM, &quot;Dominik Szczerba&quot; &lt;<a href="mailto:dominik@itis.ethz.ch">dominik@itis.ethz.ch</a>&gt;<br>
&gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; I am successfully solving my indefinite systems with MUMPS but only<br>
&gt;&gt; &gt;&gt; for very small problems. To give a feeling, a mere couple thousands<br>
&gt;&gt; &gt;&gt; elements. If I only double the problem size, it silently freezes, even<br>
&gt;&gt; &gt;&gt; with max verbosity via the control parameters. Did anyone succeed here<br>
&gt;&gt; &gt;&gt; with big problems? Any recommendations for a drop-in replacement for<br>
&gt;&gt; &gt;&gt; MUMPS?<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thanks for any hints,<br>
&gt;&gt; &gt;&gt; Dominik<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Options used:<br>
&gt;&gt; &gt;&gt; -mat_mumps_icntl_4 3 -mat_mumps_icntl_28 2 -mat_mumps_icntl_29<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Output:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; ****** FACTORIZATION STEP ********<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;  GLOBAL STATISTICS PRIOR NUMERICAL FACTORIZATION ...<br>
&gt;&gt; &gt;&gt;  NUMBER OF WORKING PROCESSES              =          16<br>
&gt;&gt; &gt;&gt;  OUT-OF-CORE OPTION (ICNTL(22))           =           0<br>
&gt;&gt; &gt;&gt;  REAL SPACE FOR FACTORS                   =  1438970073<br>
&gt;&gt; &gt;&gt;  INTEGER SPACE FOR FACTORS                =    11376442<br>
&gt;&gt; &gt;&gt;  MAXIMUM FRONTAL SIZE (ESTIMATED)         =       16868<br>
&gt;&gt; &gt;&gt;  NUMBER OF NODES IN THE TREE              =       43676<br>
&gt;&gt; &gt;&gt;  Convergence error after scaling for ONE-NORM (option 7/8)   = 0.21D+01<br>
&gt;&gt; &gt;&gt;  Maximum effective relaxed size of S              =   231932340<br>
&gt;&gt; &gt;&gt;  Average effective relaxed size of S              =   182366303<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;  REDISTRIB: TOTAL DATA LOCAL/SENT         =     1509215    22859750<br>
&gt;&gt; &gt;&gt;  GLOBAL TIME FOR MATRIX DISTRIBUTION       =      0.8270<br>
&gt;&gt; &gt;&gt;  ** Memory relaxation parameter ( ICNTL(14)  )            :        35<br>
&gt;&gt; &gt;&gt;  ** Rank of processor needing largest memory in facto     :         0<br>
&gt;&gt; &gt;&gt;  ** Space in MBYTES used by this processor for facto      :      2017<br>
&gt;&gt; &gt;&gt;  ** Avg. Space in MBYTES per working proc during facto    :      1618<br>
&gt;<br>
&gt;<br>
&gt;<br>
<span class="HOEnZb"><font color="#888888">&gt;<br>
&gt; --<br>
&gt; Hailong<br>
</font></span></blockquote></div><br>