<font size=2 face="sans-serif">Appears to be something in the SGI MPT
that has been around for a long time and looks like a possible leak in
the MPI library rather than in applications built on top of it?</font>
<br>
<br><font size=2 face="sans-serif">/Nils</font>
<br>
<br><a href="http://www.hdfgroup.org/ftp/HDF5/prev-releases/ReleaseFiles/release5-180"><font size=2 face="sans-serif">http://www.hdfgroup.org/ftp/HDF5/prev-releases/ReleaseFiles/release5-180</font></a>
<br>
<br><tt><font size=3>* On IRIX6.5, when the C compiler version is greater
than 7.4, complicated<br>
 &nbsp;MPI derived datatype code will work. However, the user should increase<br>
 &nbsp;the value of the MPI_TYPE_MAX environment variable to some appropriate
value <br>
 &nbsp;to use collective irregular selection code. &nbsp;For example, the
current <br>
 &nbsp;parallel HDF5 test needs to raise MPI_TYPE_MAX to 200,000 to pass
the test. <br>
</font></tt>
<br>
<br><a href=http://www.ks.uiuc.edu/Research/namd/2.6/notes.html><tt><font size=3>http://www.ks.uiuc.edu/Research/namd/2.6/notes.html</font></tt></a>
<br><tt><font size=3>&nbsp; setenv MPI_REQUEST_MAX 10240<br>
 &nbsp;setenv MPI_TYPE_MAX 10240<br>
<br>
Then run NAMD with the following command:<br>
<br>
 &nbsp;mpirun -np &lt;procs&gt; namd2 &lt;configfile&gt;<br>
</font></tt>
<br>
<br>
<br><a href="http://spec.unipv.it/mpi/results/res2009q1/mpi2007-20090310-00118.csv"><tt><font size=3>http://spec.unipv.it/mpi/results/res2009q1/mpi2007-20090310-00118.csv</font></tt></a>
<br><tt><font size=3>&quot; &nbsp; setenv MPI_TYPE_MAX 32768&quot;<br>
&quot; &nbsp; &nbsp; Determines the maximum number of data types that can&quot;<br>
&quot; &nbsp; &nbsp; simultaneously exist for any single MPI process.&quot;<br>
&quot; &nbsp; &nbsp; MPI generates an error message if this limit (or the
default,&quot;<br>
&quot; &nbsp; &nbsp; if not set) is exceeded. &nbsp;Default: &nbsp;1024&quot;<br>
</font></tt>
<br>
<br>
<br><font size=2 face="sans-serif">______________________________________________<br>
Nils Smeds, &nbsp;IBM Deep Computing / World Wide Coordinated Tuning Team<br>
IT Specialist, Mobile phone: +46-70-793 2639<br>
Fax. +46-8-793 9523<br>
Mail address: IBM Sweden; Loc. 5-03; 164 92 Stockholm; SWEDEN</font>
<br>
<br>
<br>
<br><font size=1 color=#5f5f5f face="sans-serif">From: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">Maxwell Kelley &lt;kelley@giss.nasa.gov&gt;</font>
<br><font size=1 color=#5f5f5f face="sans-serif">To: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">Rob Latham &lt;robl@mcs.anl.gov&gt;</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Cc: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">parallel-netcdf@lists.mcs.anl.gov</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Date: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">10/06/2010 07:50 PM</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Subject: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">Re: MPI_TYPE_MAX
limit using MPT</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Sent by: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">parallel-netcdf-bounces@lists.mcs.anl.gov</font>
<br>
<hr noshade>
<br>
<br>
<br><tt><font size=2><br>
My test was indeed using the nonblocking interface; I could re-code with
<br>
the blocking interface if you think that would shed some light. The same
<br>
test run with mvapich2 didn't encounter any problem. &nbsp;The MPI_TYPE_MAX
<br>
issue is mentioned here<br>
<br>
</font></tt><a href="http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-February/006647.html"><tt><font size=2>http://lists.mcs.anl.gov/pipermail/mpich-discuss/2010-February/006647.html</font></tt></a><tt><font size=2><br>
<br>
so perhaps it's not pnetcdf that is forgetting to free datatypes.<br>
<br>
-Max<br>
<br>
On Wed, 6 Oct 2010, Rob Latham wrote:<br>
<br>
&gt; On Wed, Oct 06, 2010 at 12:29:50PM -0400, Maxwell Kelley wrote:<br>
&gt;&gt; Is this normal? &nbsp;Setting MPI_TYPE_MAX to 65536 simply allowed
more<br>
&gt;&gt; I/O to be performed before the error appears. The limit is reached<br>
&gt;&gt; more quickly using more processors. &nbsp;Assuming that this is
a case of<br>
&gt;&gt; types not being freed after use, should I just set this limit
high<br>
&gt;&gt; enough that it will never be exceeded during a 12-hour batch job?<br>
&gt;<br>
&gt; I wish we knew more about where the extra data types came from.<br>
&gt;<br>
&gt; I imagine there is some cost to setting MPI_TYPE_MAX to 2 billion.<br>
&gt; Hopefully, you can find a value that lets you complete your work while<br>
&gt; I try to find the places where pnetcdf forgets to free datatypes.<br>
&gt;<br>
&gt; Are you still using the nonblocking interface?<br>
&gt;<br>
&gt; ==rob<br>
&gt;<br>
&gt; -- <br>
&gt; Rob Latham<br>
&gt; Mathematics and Computer Science Division<br>
&gt; Argonne National Lab, IL USA<br>
&gt;<br>
&gt;<br>
<br>
</font></tt>
<br><font size=2 face="sans-serif"><br>
<br>
Såvida annat inte anges ovan: / Unless stated otherwise above:<br>
IBM Svenska AB<br>
Organisationsnummer: 556026-6883<br>
Adress: 164 92 Stockholm<br>
</font>