Dominik,<br><br>I apologize for the confusion, but, if you read the quoted text, you will see that I was replying to Hong about a branch from this thread concerning Hailong.<br><br>Barry&#39;s response was slso related to said branch.<br>
<br>Jack<br><br>On Saturday, December 24, 2011, Dominik Szczerba &lt;<a href="mailto:dominik@itis.ethz.ch">dominik@itis.ethz.ch</a>&gt; wrote:<br>&gt; Jack: I do not even have these packages installed anywhere on my system.<br>
&gt; Barry: That&#39;s what I did, I downloaded everything via configure.<br>&gt;<br>&gt; Anywhere else to look?<br>&gt;<br>&gt; Dominik<br>&gt;<br>&gt; On Sat, Dec 24, 2011 at 1:35 AM, Barry Smith &lt;<a href="mailto:bsmith@mcs.anl.gov">bsmith@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt;<br>&gt;&gt;   If you have PETSc ./configure do all the installs this decreases the chance of problems like this.  Use --download-blacs --download-scalapack --download-mumps --download-parmetis --download-ptscotch<br>
&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;   Barry<br>&gt;&gt;<br>&gt;&gt; On Dec 23, 2011, at 4:56 PM, Jack Poulson wrote:<br>&gt;&gt;<br>&gt;&gt;&gt; It looks like it&#39;s due to mixing different MPI implementations together (i.e., including the wrong &#39;mpif.h&#39;):<br>
&gt;&gt;&gt; <a href="http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-July/007559.html">http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-July/007559.html</a><br>&gt;&gt;&gt;<br>&gt;&gt;&gt; If I recall correctly, MUMPS only uses ScaLAPACK to factor the root separator when it is sufficiently large, and that would explain why it works for him for smaller problems. I would double check that ScaLAPACK, PETSc, and MUMPS are all compiled with the same MPI implementation.<br>
&gt;&gt;&gt;<br>&gt;&gt;&gt; Jack<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; On Wed, Dec 21, 2011 at 4:55 PM, Hong Zhang &lt;<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>&gt; wrote:<br>&gt;&gt;&gt; Hailong:<br>&gt;&gt;&gt; I&#39;ve never seen this type of error from MUMPS.<br>
&gt;&gt;&gt; It seems programming bug. Are you sure smaller problem runs correctly?<br>&gt;&gt;&gt; Use valgrind check it.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Hong<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; &gt; I got the error from MUMPS.<br>
&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt; When I run MUMPS (which requring scalapack) with matrix size (n) = 30620,<br>&gt;&gt;&gt; &gt; nonzeros (nz) = 785860,<br>&gt;&gt;&gt; &gt; I could run it. And could get result.<br>&gt;&gt;&gt; &gt; But when I run it with<br>
&gt;&gt;&gt; &gt; nz=3112820<br>&gt;&gt;&gt; &gt; n =61240<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt; I am getting the following error<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt; 17 - &lt;NO ERROR MESSAGE&gt; : Could not convert index 1140850688 into a pointer<br>
&gt;&gt;&gt; &gt; The index may be an incorrect argument.<br>&gt;&gt;&gt; &gt; Possible sources of this problem are a missing &quot;include &#39;mpif.h&#39;&quot;,<br>&gt;&gt;&gt; &gt; a misspelled MPI object (e.g., MPI_COM_WORLD instead of MPI_COMM_WORLD)<br>
&gt;&gt;&gt; &gt; or a misspelled user variable for an MPI object (e.g.,<br>&gt;&gt;&gt; &gt; com instead of comm).<br>&gt;&gt;&gt; &gt; [17] [] Aborting Program!<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt; &gt; Do you know what happened?<br>&gt;&gt;&gt; &gt; Is that possible it is running out of memory?<br>&gt;&gt;&gt; &gt;<br>&gt;&gt;&gt; &gt; On Wed, Dec 21, 2011 at 7:15 AM, Hong Zhang &lt;<a href="mailto:hzhang@mcs.anl.gov">hzhang@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; Direct solvers often require large memory for storing matrix factors.<br>&gt;&gt;&gt; &gt;&gt; As Jed suggests, you may try superlu_dist.<br>&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; With mumps, I notice you use parallel analysis, which is relative new in<br>
&gt;&gt;&gt; &gt;&gt; mumps.<br>&gt;&gt;&gt; &gt;&gt; What happens if you use default sequential analysis with<br>&gt;&gt;&gt; &gt;&gt; different matrix orderings?<br>&gt;&gt;&gt; &gt;&gt; I usually use matrix ordering &#39;-mat_mumps_icntl_7 2&#39;.<br>
&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; Also, you can increase fill ratio,<br>&gt;&gt;&gt; &gt;&gt; -mat_mumps_icntl_14 &lt;20&gt;: ICNTL(14): percentage of estimated workspace<br>&gt;&gt;&gt; &gt;&gt; increase (None)<br>
&gt;&gt;&gt; &gt;&gt; i.e., default ration is 20, you may try 50? (I notice that you already use<br>&gt;&gt;&gt; &gt;&gt; 30).<br>&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; It seems you use 16 CPUs for &quot;a mere couple thousands<br>
&gt;&gt;&gt; &gt;&gt; elements&quot; problems, and mumps &quot;silently freezes&quot;. I do not have this type<br>&gt;&gt;&gt; &gt;&gt; of experience with mumps. I usually can solve sparse matrix of size<br>&gt;&gt;&gt; &gt;&gt; 10k with 1 cpu using mumps.<br>
&gt;&gt;&gt; &gt;&gt; When mumps runs out of memory or gets other problems, it terminates<br>&gt;&gt;&gt; &gt;&gt; execution and dumps out error message,<br>&gt;&gt;&gt; &gt;&gt; not freezes.<br>&gt;&gt;&gt; &gt;&gt; Something is wrong here. Use a debugger and figuring out where it freezes.<br>
&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; Hong<br>&gt;&gt;&gt; &gt;&gt;<br>&gt;&gt;&gt; &gt;&gt; On Wed, Dec 21, 2011 at 7:01 AM, Jed Brown &lt;<a href="mailto:jedbrown@mcs.anl.gov">jedbrown@mcs.anl.gov</a>&gt; wrote:<br>
&gt;&gt;&gt; &gt;&gt; &gt; -pc_type lu -pc_factor_mat_solver_package superlu_dist<br>&gt;&gt;&gt; &gt;&gt; &gt;<br>&gt;&gt;&gt; &gt;&gt; &gt; On Dec 21, 2011 6:19 AM, &quot;Dominik Szczerba&quot; &lt;dominik@i