<table cellspacing="0" cellpadding="0" border="0" ><tr><td valign="top" style="font: inherit;">At the time of installation I got the error for cxx after disabling it hte installation was proceed successfully.. CAn you pls guide me to configure cxx manualy<BR><BR>
<DIV><FONT class=Apple-style-span color=#ff4040>Pratik Agrawal</FONT></DIV>
<DIV><FONT class=Apple-style-span color=#ff4040>Contact: +91-94287-63145</FONT></DIV>
<DIV><FONT class=Apple-style-span color=#ff4040>Twitter: http://www/twitter.com/praxvoper</FONT></DIV>
<DIV><FONT class=Apple-style-span color=#ff4040>http://www.pratikagrawal.x10.mx</FONT></DIV>
<DIV><FONT class=Apple-style-span color=#ff4040><BR></FONT></DIV><BR><BR>--- On <B>Wed, 5/5/10, Dhabaleswar Panda <I>&lt;panda@cse.ohio-state.edu&gt;</I></B> wrote:<BR>
<BLOCKQUOTE style="PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: rgb(16,16,255) 2px solid"><BR>From: Dhabaleswar Panda &lt;panda@cse.ohio-state.edu&gt;<BR>Subject: [mpich-discuss] MVAPICH2 1.5RC1 release is available with Nemesis-InfiniBand Netmod interface<BR>To: mpich-discuss@mcs.anl.gov<BR>Date: Wednesday, 5 May, 2010, 11:05 AM<BR><BR>
<DIV class=plainMail>The MVAPICH team has announced the release of MVAPICH2 1.5RC1 today. It<BR>supports a new Nemesis-InfiniBand Netmod interface. It supports the<BR>OpenFabrics InfiniBand Gen2 layer. This interface is in addition to the<BR>various existing CH3-based interfaces for InfiniBand, iWARP, RoCE, uDAPL<BR>and PSM. This release also has flexible support to use Hydra or mpirun_rsh<BR>process manager for any of the CH3-based or Nemesis-based interfaces.<BR><BR>This release is based on MPICH2 1.2.1p1.<BR><BR>The detailed release announcement is included below.<BR><BR>Hope this new Nemesis-InfiniBand netmod design will help MPICH2 users to<BR>harness maximum performance from their InfiniBand clusters.<BR><BR>Looking forward to feedback from MPICH2 users on their experiences in<BR>using this new Nemesis-InfiniBand Netmod interface.<BR><BR>Thanks,<BR><BR>DK Panda<BR>(On Behalf of the MVAPICH Team)<BR><BR>=========================<BR><BR>The MVAPICH
 team is pleased to announce the release of MVAPICH2 1.5RC1<BR>with the following NEW features:<BR><BR>- MPI 2.2 standard compliant<BR>- Based on MPICH2 1.2.1p1<BR>- OFA-IB-Nemesis interface design<BR>&nbsp; &nbsp; - OpenFabrics InfiniBand network module support for<BR>&nbsp; &nbsp; &nbsp; MPICH2 Nemesis modular design<BR>&nbsp; &nbsp; - Support for high-performance intra-node shared memory<BR>&nbsp; &nbsp; &nbsp; communication provided by the Nemesis design<BR>&nbsp; &nbsp; - Adaptive RDMA Fastpath with Polling Set for high-performance<BR>&nbsp; &nbsp; &nbsp; inter-node communication<BR>&nbsp; &nbsp; - Shared Receive Queue (SRQ) support with flow control,<BR>&nbsp; &nbsp; &nbsp; uses significantly less memory for MPI library<BR>&nbsp; &nbsp; - Header caching<BR>&nbsp; &nbsp; - Advanced AVL tree-based Resource-aware registration cache<BR>&nbsp; &nbsp; - Memory Hook Support provided by integration with ptmalloc2<BR>&nbsp; &nbsp; &nbsp; library. This
 provides safe release of memory to the<BR>&nbsp; &nbsp; &nbsp; Operating System and is expected to benefit the memory<BR>&nbsp; &nbsp; &nbsp; usage of applications that heavily use malloc and free operations.<BR>&nbsp; &nbsp; - Support for TotalView debugger<BR>&nbsp; &nbsp; - Shared Library Support for existing binary MPI application<BR>&nbsp; &nbsp; &nbsp; programs to run ROMIO Support for MPI-IO<BR>&nbsp; &nbsp; - Support for additional features (such as hwloc,<BR>&nbsp; &nbsp; &nbsp; hierarchical collectives, one-sided, multithreading, etc.),<BR>&nbsp; &nbsp; &nbsp; as included in the MPICH2 1.2.1p1 Nemesis channel<BR>- Flexible process manager support<BR>&nbsp; &nbsp; - mpirun_rsh to work with any of the eight interfaces<BR>&nbsp; &nbsp; &nbsp; (CH3 and Nemesis channel-based) including OFA-IB-Nemesis,<BR>&nbsp; &nbsp; &nbsp; TCP/IP-CH3 and TCP/IP-Nemesis<BR>&nbsp; &nbsp; - Hydra process manager to work with any of the eight interfaces<BR>&nbsp;
 &nbsp; &nbsp; (CH3 and Nemesis channel-based) including OFA-IB-CH3,<BR>&nbsp; &nbsp; &nbsp; OFA-iWARP-CH3, OFA-RoCE-CH3 and TCP/IP-CH3<BR>- MPIEXEC_TIMEOUT is honored by mpirun_rsh<BR><BR>This release also contains multiple bug fixes since MVAPICH2-1.4.1 A<BR>summary of the major fixes are as follows:<BR><BR>- Fix compilation error when configured with<BR>&nbsp; `--enable-thread-funneled'<BR>- Fix MPE functionality, thanks to Anthony Chan &lt;<A href="http://in.mc945.mail.yahoo.com/mc/compose?to=chan@mcs.anl.gov" ymailto="mailto:chan@mcs.anl.gov">chan@mcs.anl.gov</A>&gt; for<BR>&nbsp; reporting and providing the resolving patch<BR>- Cleanup after a failure in the init phase is handled better by<BR>&nbsp; mpirun_rsh<BR>- Path determination is correctly handled by mpirun_rsh when DPM is<BR>&nbsp; used<BR>- Shared libraries are correctly built (again)<BR><BR>For downloading MVAPICH2 1.5RC1, associated user guide and accessing<BR>the SVN, please visit the
 following URL:<BR><BR><A href="http://mvapich.cse.ohio-state.edu/" target=_blank>http://mvapich.cse.ohio-state.edu</A><BR><BR>All feedbacks, including bug reports and hints for performance tuning,<BR>patches and enhancements are welcome. Please post it to the<BR>mvapich-discuss mailing list.<BR><BR>We are also happy to inform that the number of organizations using<BR>MVAPICH/MVAPICH2 (and registered at the MVAPICH site) has crossed<BR>1,100 world-wide (in 58 countries). The MVAPICH team extends<BR>thanks to all these organizations.<BR><BR>Thanks,<BR><BR>The MVAPICH Team<BR><BR><BR>_______________________________________________<BR>mpich-discuss mailing list<BR><A href="http://in.mc945.mail.yahoo.com/mc/compose?to=mpich-discuss@mcs.anl.gov" ymailto="mailto:mpich-discuss@mcs.anl.gov">mpich-discuss@mcs.anl.gov</A><BR><A href="https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss"
 target=_blank>https://lists.mcs.anl.gov/mailman/listinfo/mpich-discuss</A><BR></DIV></BLOCKQUOTE></td></tr></table><br>