I should also point out that 1.0.3 compiled just fine on this same machine.  FYI, this is all I did to compile 1.0.3:<br><br><br>=====================================<br>wget <a href="http://ftp.mcs.anl.gov/pub/parallel-netcdf/parallel-netcdf-1.0.3.tar.gz">http://ftp.mcs.anl.gov/pub/parallel-netcdf/parallel-netcdf-1.0.3.tar.gz</a><br>
<br><br>Currently untarred in $HOME/parallel-netcdf-1.0.3/<br><br>export FC=ftn<br>export MPIF77=ftn<br>export CC=cc<br>export MPICC=cc<br><br>then <br><br>./configure --prefix=$HOME/usr/local/pnetcdf<br><br>make<br><br>make install<br>
<br><div class="gmail_quote">On Wed, Jan 27, 2010 at 11:46 PM, Don Morton <span dir="ltr">&lt;<a href="mailto:Don.Morton@alaska.edu">Don.Morton@alaska.edu</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I&#39;m thinking (but could be dead wrong) that this isn&#39;t the issue.  In fact, configure certainly finds plenty of MPI stuff to talk about (just an excerpt).  That missing &quot;c&quot; deal is something I know I&#39;ve run into in the past year or two, and it&#39;s just some trivial little mistake, so I&#39;m going to follow that track for a bit.  Sure wish my brain could recall the details of last time this happened.  For some reason I&#39;m thinking it might have something to do with a &quot;c&quot; flag on the ARFLAGS macro - that&#39;s ringing a bell - but again, I could be way out in left field on this...<br>

<br>checking MPI-IO support in MPI implementation... yes<br>checking for sys/types.h... yes<br>checking for sys/stat.h... yes<br>checking for stdlib.h... yes<br>checking for string.h... yes<br>checking for memory.h... yes<br>

checking for strings.h... yes<br>checking for inttypes.h... yes<br>checking for stdint.h... yes<br>checking for unistd.h... yes<br>checking for stdlib.h... (cached) yes<br>checking for sys/types.h... (cached) yes<br>checking for strerror... yes<br>

checking for working alloca.h... yes<br>checking for alloca... yes<br>checking for struct stat.st_blksize... yes<br>checking for IEEE floating point format... yes<br>checking for size_t... yes<br>checking if MPI_Offset is size 8... yes<br>

checking for MPI_Request_get_status... yes<br>checking for MPI_Type_dup... yes<br>checking for MPI_Info_dup... yes<div><div></div><div class="h5"><br><br><br><div class="gmail_quote">On Wed, Jan 27, 2010 at 11:41 PM, Rob Latham <span dir="ltr">&lt;<a href="mailto:robl@mcs.anl.gov" target="_blank">robl@mcs.anl.gov</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div>On Wed, Jan 27, 2010 at 02:36:37PM -0900, Don Morton wrote:<br><br>
&gt; OK, thanks, I&#39;ll go back and scrutinize the configure output (like I should<br>
&gt; have to begin with).  This is a Cray XT5, where one simply sets the<br>
&gt; environment variables to &quot;ftn&quot; and it magically finds MPI and such.  So,<br>
&gt; maybe something&#39;s getting lost...<br>
<br>
</div>OK, that&#39;s good information.  We don&#39;t have a &quot;README.CRAY-XT&quot;, so<br>
when we get you running with a configure that works 100%, we&#39;ll add<br>
one.<br>
<br>
The &quot;README.CRAY-X1&quot; recipe isn&#39;t too far off.  Be sure to set the<br>
MPIF90 and MPICXX environment variables, though.  Not sure if you<br>
still need the &#39;-eh&#39; flag.<br>
<div><div></div><div><br>
==rob<br>
<br>
--<br>
Rob Latham<br>
Mathematics and Computer Science Division<br>
Argonne National Lab, IL USA<br>
</div></div></blockquote></div><br><br clear="all"><br></div></div><div><div></div><div class="h5">-- <br>Arctic Region Supercomputing Center<br><a href="http://www.arsc.edu/%7Emorton/" target="_blank">http://www.arsc.edu/~morton/</a><br>

</div></div></blockquote></div><br><br clear="all"><br>-- <br>Arctic Region Supercomputing Center<br><a href="http://www.arsc.edu/~morton/">http://www.arsc.edu/~morton/</a><br>