Seems like it wouldn&#39;t be any harder to implement and would be more user friendly if you use the value from the root process and ignore the others.   In my application there are several attributes which are set on the root task and which are not needed on the other tasks except to meet the requirement of pnetcdf, if we remove this requirement I could get rid of several otherwise unnecessary mpi_bcast calls.  <br>
<br><br><br><div class="gmail_quote">On Tue, Jun 16, 2009 at 9:38 AM, Rob Ross <span dir="ltr">&lt;<a href="mailto:rross@mcs.anl.gov">rross@mcs.anl.gov</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi Julien,<br>
<br>
Huh. I wouldn&#39;t have expected that. Perhaps we should adjust the PnetCDF semantics for the *values* such that you get a value from some process, not defined which one if they are different?<br><font color="#888888">
<br>
Rob</font><div><div></div><div class="h5"><br>
<br>
On Jun 16, 2009, at 10:27 AM, Julien Bodart wrote:<br>
<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi Rob,<br>
<br>
This was in the value actually:<br>
<br>
current_time = time(NULL) ;<br>
GSTRING_ASS(my_string, ctime(&amp;current_time) ) ;<br>
status =ncmpi_put_att_text ( nc_id, NC_GLOBAL, &quot;time_stamp&quot;      , (MPI_Offset) (my_string-&gt;len-1) , my_string-&gt;str ) ;<br>
<br>
GSTRING_ASS being a macro that return a string, where a string being a char(str) and the number of element in the char (len)<br>
<br>
Regards,<br>
<br>
Julien<br>
<br>
2009/6/16 Rob Ross &lt;<a href="mailto:rross@mcs.anl.gov" target="_blank">rross@mcs.anl.gov</a>&gt;<br>
Hi Julien,<br>
<br>
So you were using the time in the name of the attribute, not in the value?<br>
<br>
Thanks,<br>
<br>
Rob<br>
<br>
<br>
On Jun 16, 2009, at 7:22 AM, Julien Bodart wrote:<br>
<br>
Hi everybody,<br>
<br>
I finally manage to remove this bug, which was of course coming from my source code!<br>
The guilty: a &quot;time&quot; global attribute coming from the &quot;ctime&quot; function which of course is different across a large number of processors... I know this is silly but actually I was not expecting a check on the global attributes, especially with an error message &quot;NC definitions mismatch&quot;.<br>

So I have to apologize for such a stupid mistake, but at the same time, it reinforces the idea to rethink this check function.<br>
Thanks again.<br>
<br>
Julien<br>
<br>
2009/6/16 Wei-keng Liao &lt;<a href="mailto:wkliao@ece.northwestern.edu" target="_blank">wkliao@ece.northwestern.edu</a>&gt;<br>
<br>
<br>
I agree this suggestion. So, there are three options.<br>
<br>
1. When pnetcdf is built with debug mode (at configure time), we will enable<br>
 the consistency checking across all processes. In this case, the error<br>
 is considered fatal. For debugging purpose, this should be fine. Note that<br>
 the consistency checking may become costly, especially when the number of<br>
 processes is large. We do not expect a production pnetcdf to be built with<br>
 the debug mode.<br>
<br>
2. When built without debug mode, pnetcdf will only take process 0&#39;s inputs and<br>
 ignore all others. Also, consistency checking is disabled.<br>
<br>
3. A middle ground: enable consistency checking but only process 0&#39;s inputs<br>
 are used to define variables, attributes, etc. if inconsistency is detected.<br>
 The error is not fatal, but only gives a warning message.<br>
<br>
If these are fine to the pnetcdf community, we will start to implement them.<br>
<br>
Wei-keng<br>
<br>
<br>
On Jun 15, 2009, at 8:21 PM, Yu-hengTseng wrote:<br>
<br>
Thanks Rob and Wei-keng,<br>
It will be a good idea to make this check as a warming only. In most realistic applications (including Community Atmospheric Model, within CCSM development), it&#39;s almost impossible to have the same dimension for the same array variable within different processes. Usually, 1 or 2 shift. Cheers,<br>

Yu-heng Tseng<br>
Department of Atmospheric Sciences<br>
National Taiwan University<br>
No. 1, Sec. 4, Roosevelt Rd, Taipei 106, Taiwan<br>
tel: 886-2-33663918<br>
email: <a href="mailto:yhtseng@as.ntu.edu.tw" target="_blank">yhtseng@as.ntu.edu.tw</a><br>
<br>
----- Original Message -----<br>
From: <a href="mailto:wkliao@ece.northwestern.edu" target="_blank">wkliao@ece.northwestern.edu</a><br>
To: <a href="mailto:wkliao@ece.northwestern.edu" target="_blank">wkliao@ece.northwestern.edu</a>;parallel-netcdf&lt;<a href="mailto:parallel-netcdf@lists.mcs.anl.gov" target="_blank">parallel-netcdf@lists.mcs.anl.gov</a>&gt;<br>

Sent: 2009-06-16 03:00:01<br>
Subject: Re: Problem on Blue Gene/P<br>
<br>
For example, when defining a new 2D array variable and the number of<br>
processes is 2, P0 and P1.<br>
The metadata (array dimensions, attributes, etc. in define mode) must<br>
be the same between P0<br>
and P1. If P0 uses 10x10 dimension values and P1 uses 10x11, then this<br>
error message will<br>
appear.<br>
<br>
Wei-keng<br>
<br>
On Jun 15, 2009, at 12:57 PM, Julien Bodart wrote:<br>
<br>
&gt; Thanks everybody for your help.<br>
&gt;<br>
&gt; I am afraid I don&#39;t get the point &quot;your code is defining netcdf<br>
&gt; variables and attributes in<br>
&gt; a slightly different way on some MPI processes than others&quot;...<br>
&gt; depending on what?<br>
&gt;<br>
&gt; Another test I could try is to unable the check made by ncpmi_enddef<br>
&gt; if it is possible, and see which kind of output file I get.<br>
&gt; I don&#39;t know if it is possible to do it easily without recompiling<br>
&gt; the library.<br>
&gt;<br>
&gt; I will try anyway the binary debugging.<br>
&gt;<br>
&gt;<br>
&gt; 2009/6/15 Rob Latham<br>
&gt; On Fri, Jun 12, 2009 at 02:19:33PM +0200, Julien Bodart wrote:<br>
&gt; &gt; While it does not create any problems on small cases, bigger cases<br>
&gt; stop at<br>
&gt; &gt; the ncmpi_enddef call on some files (randomly, even with<br>
&gt; synchronisation in<br>
&gt; &gt; between), saying that there is a mismatch between dimensions.<br>
&gt; After many<br>
&gt; &gt; check it does not seems that there is something wrong with the<br>
&gt; dimensions. I<br>
&gt; &gt; have no idea of how to solve the problem. Did anyone had similar<br>
&gt; problem?<br>
&gt; &gt; Thanks for your help.<br>
&gt;<br>
&gt; Hi Julien. Wei-keng is right: I know you&#39;ve checked carefully, but<br>
&gt; some part of your code is defining netcdf variables and attributes in<br>
&gt; a slightly different way on some MPI processes than others.<br>
&gt;<br>
&gt; The main way people debug this is through binary search: comment out<br>
&gt; half of the define-mode portion; if the problem persists, comment out<br>
&gt; half of the remainder, else, try with the other half.<br>
&gt;<br>
&gt; You&#39;re not the first to encounter this problem.  Maybe this could be a<br>
&gt; warning and not an error, and maybe we should just have the define<br>
&gt; mode view as rank 0 sees it be the one that wins if there&#39;s a<br>
&gt; discrepancy.   I don&#39;t know how many people (if any) rely on the<br>
&gt; current behavior to find problems.<br>
&gt;<br>
&gt; ==rob<br>
&gt;<br>
&gt; --<br>
&gt; Rob Latham<br>
&gt; Mathematics and Computer Science Division<br>
&gt; Argonne National Lab, IL USA<br>
&gt;<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
</blockquote>
<br>
</div></div></blockquote></div><br>