<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii">
<META NAME="Generator" CONTENT="MS Exchange Server version 6.5.7036.0">
<TITLE>RE: [mpich-discuss] IMB 3.1 with TOL 0 crashes on Allreduce</TITLE>
</HEAD>
<BODY>
<!-- Converted from text/plain format -->

<P><FONT SIZE=2>&nbsp;Hi,<BR>
&nbsp; Any inputs on the other points that I mentioned in my prev email ?<BR>
<BR>
Regards,<BR>
Jayesh<BR>
<BR>
-----Original Message-----<BR>
From: Calin Iaru [<A HREF="mailto:calin@dolphinics.com">mailto:calin@dolphinics.com</A>]<BR>
Sent: Friday, May 30, 2008 8:17 AM<BR>
To: Jayesh Krishna<BR>
Cc: mpich-discuss@mcs.anl.gov<BR>
Subject: Re: [mpich-discuss] IMB 3.1 with TOL 0 crashes on Allreduce<BR>
<BR>
Hi Jayesh,<BR>
<BR>
&nbsp;&nbsp;&nbsp; besides Allreduce, there is Reduce and Reduce_Scatter that fails.<BR>
<BR>
Best regards,<BR>
&nbsp;&nbsp;&nbsp; Calin<BR>
<BR>
Jayesh Krishna wrote:<BR>
&gt;<BR>
&gt;&nbsp; Hi,<BR>
&gt;&nbsp;&nbsp; I tried running the IMB 3.1 suite for allreduce on a single machine<BR>
&gt; with upto 8 procs and did not get any errors.<BR>
&gt;&nbsp;<BR>
&gt; 1) Make sure that both node-1 &amp; node-2 have the same data model (data<BR>
&gt; type representation). Please note that MPICH2 currently does not<BR>
&gt; support heterogeneous systems (wrt the data models used by the<BR>
&gt; machines, for eg: you cannot run MPI procs across x86 and x64<BR>
&gt; machines). If you need to run your program across a heterogeneous<BR>
&gt; system please use MPICH1 instead.<BR>
&gt;<BR>
&gt; 2) Try running the benchmark on a single node/host (mpiexec -n 2<BR>
&gt; imb-mpi1.exe allreduce) and let us know the results.<BR>
&gt; 3) Are you able to run other tests in the IMB 3.1 suite ?<BR>
&gt;<BR>
&gt; Regards,<BR>
&gt; Jayesh<BR>
&gt;<BR>
&gt; -----Original Message-----<BR>
&gt; From: owner-mpich-discuss@mcs.anl.gov<BR>
&gt; [<A HREF="mailto:owner-mpich-discuss@mcs.anl.gov">mailto:owner-mpich-discuss@mcs.anl.gov</A>] On Behalf Of Calin Iaru<BR>
&gt; Sent: Monday, May 26, 2008 5:50 AM<BR>
&gt; To: mpich-discuss@mcs.anl.gov<BR>
&gt; Subject: [mpich-discuss] IMB 3.1 with TOL 0 crashes on Allreduce<BR>
&gt;<BR>
&gt; The problem is that the latest mpich2 in combination with IMB 3.1<BR>
&gt; generates a data corruption error when running on 2 nodes. IMB was<BR>
&gt; compiled with the CHECK flag and TOL set to 0 inside IMB_declare.h. I<BR>
&gt; am not sure if this is a transport error or a verification error; it<BR>
&gt; could be that the problem lies in the application code.<BR>
&gt;<BR>
&gt; E:\Program Files\MPICH2\bin&gt;mpiexec.exe -hosts 2 node-1 node-2<BR>
&gt; \\node-1\e$\imb-mpi1.exe allreduce<BR>
&gt; #---------------------------------------------------<BR>
&gt; #&nbsp;&nbsp;&nbsp; Intel (R) MPI Benchmark Suite V3.1, MPI-1 part<BR>
&gt; #---------------------------------------------------<BR>
&gt; # Date&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : Fri May 23 14:44:12 2008<BR>
&gt; # Machine&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : x86 Family 15 Model 4 Stepping 1, GenuineIntel<BR>
&gt; # System&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : Windows 2003<BR>
&gt; # Release&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : 5.2.3790<BR>
&gt; # Version&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : Service Pack 1<BR>
&gt; # MPI Version&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; : 2.0<BR>
&gt; # MPI Thread Environment: MPI_THREAD_SINGLE<BR>
&gt;<BR>
&gt;<BR>
&gt;<BR>
&gt; # Calling sequence was:<BR>
&gt;<BR>
&gt; # \\node-1\e$\imb-mpi1.exe allreduce<BR>
&gt;<BR>
&gt; # Minimum message length in bytes:&nbsp;&nbsp; 0<BR>
&gt; # Maximum message length in bytes:&nbsp;&nbsp; 4194304<BR>
&gt; #<BR>
&gt; # MPI_Datatype&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; :&nbsp;&nbsp; MPI_BYTE<BR>
&gt; # MPI_Datatype for reductions&nbsp;&nbsp;&nbsp; :&nbsp;&nbsp; MPI_FLOAT<BR>
&gt; # MPI_Op&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; :&nbsp;&nbsp; MPI_SUM<BR>
&gt; #<BR>
&gt; #<BR>
&gt;<BR>
&gt; # List of Benchmarks to run:<BR>
&gt;<BR>
&gt; # Allreduce<BR>
&gt;<BR>
&gt; #---------------------------------------------------------------------<BR>
&gt; --------<BR>
&gt; # Benchmarking Allreduce<BR>
&gt; # #processes = 2<BR>
&gt; #-----------------------------------------------------------------------------<BR>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; #bytes #repetitions&nbsp; t_min[usec]&nbsp; t_max[usec]&nbsp; t_avg[usec]&nbsp;&nbsp;&nbsp;&nbsp;<BR>
&gt; defects<BR>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.51&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.52&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<BR>
&gt; 0.51&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00<BR>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1000&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 80.30&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 80.35&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<BR>
&gt; 80.33&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.00<BR>
&gt; 1: Error Allreduce, size = 8, sample #0 Process 1: Got invalid buffer:<BR>
&gt; Buffer entry: 2.300000<BR>
&gt; 0: Error Allreduce, size = 8, sample #0 Process 0: Got invalid buffer:<BR>
&gt; Buffer entry: 2.300000<BR>
&gt;<BR>
&gt;<BR>
<BR>
</FONT>
</P>

</BODY>
</HTML>