]> git.openfabrics.org - ~ardavis/ofed_docs/.git/commitdiff
ome updates for MPI docs
authorTziporet Koren <tziporet@mellanox.co.il>
Wed, 13 Jun 2007 13:02:10 +0000 (16:02 +0300)
committerTziporet Koren <tziporet@mellanox.co.il>
Wed, 13 Jun 2007 13:02:10 +0000 (16:02 +0300)
MPI_README.txt
mvapich_release_notes.txt [new file with mode: 0644]
osu_mpi_release_notes.txt [deleted file]

index 8e2e73796581125863567f51d12d4d37f0f8fe6e..108d2bca3930646ab562224a7096ba053c5fb3de 100644 (file)
@@ -338,19 +338,16 @@ to run on.
 
 Example1: Running the OSU bandwidth:
 
-!!! SOMEONE PLEASE CHECK THESE DIRECTORIES AND EXECUTABLE NAMES
     > cd /usr/mpi/gcc/openmpi-1.2.2-1/tests/osu_benchmarks-2.2
     > mpirun -np <N> -hostfile <HOSTFILE> osu_bw
 
 Example2: Running the Intel MPI Benchmark benchmarks:
 
-!!! SOMEONE PLEASE CHECK THESE DIRECTORIES AND EXECUTABLE NAMES
     > cd /usr/mpi/gcc/openmpi-1.2.2-1/tests/IMB-2.3
     > mpirun -np <N> -hostfile <HOSTFILE> IMB-MPI1
 
 Example3: Running the Presta benchmarks:
 
-!!! SOMEONE PLEASE CHECK THESE DIRECTORIES AND EXECUTABLE NAMES
     > cd /usr/mpi/gcc/openmpi-1.2.2-1/tests/presta-1.4.0
     > mpirun -np <N> -hostfile <HOSTFILE> com -o 100
 
diff --git a/mvapich_release_notes.txt b/mvapich_release_notes.txt
new file mode 100644 (file)
index 0000000..f67633d
--- /dev/null
@@ -0,0 +1,80 @@
+             Open Fabrics Enterprise Distribution (OFED)
+          OSU MPI MVAPICH-0.9.9, in OFED 1.2 Release Notes
+
+                          June 2007
+
+
+Overview
+--------
+These are the release notes for OSU MPI MVAPICH-0.9.9.
+OSU MPI is an MPI channel implementation over InfiniBand 
+from Ohio State University (OSU).
+
+(http://nowlab.cse.ohio-state.edu/projects/mpi-iba/).
+
+Software Dependencies
+---------------------
+OSU MPI depends on the installation of the OFED Distribution stack with OpenSM
+running. The MPI module also requires an established network interface (either
+InfiniBand IPoIB or Ethernet).
+
+New Features ( compared to mvapich 0.9.7-mlnx2.2.0 )
+------------
+This version for OFED has the following additional features:
+- Improved message coalescing:
+  * Reduction of per QP send queues for reduction in memory requirement
+  * Increases the small message messaging rate significantly
+- Multi-core optimizations:
+  * Optimized scalable shared memory design 
+  * Optimized, high-performance shared memory aware collective operations
+  * Multi-port support for enabling user processes to bind to different IB ports
+    for balanced communication performance
+- On-demand connection management using native IB UD support
+- Multi-path support for hot-spot avoidance in large scale clusters
+- Memory Hook Support provided by integration with ptmalloc2 library
+
+Bug Fixes
+---------
+- Error report fixes.
+- PKEY support fix.
+
+Known Issues
+------------
+- A process running MPI cannot fork after MPI_Init. Using fork might cause a
+  segmentation fault.
+- Using mpirun with ssh has a signal collection problem. Killing the run
+  (using CTRL-C) might leave some of the processes running on some of the
+  nodes. This can also happen if one of the processes exits with an error.
+  Note: This problem does not exist with rsh.
+- The MPD job launcher feature of OSU MPI module has not been tested by Mellanox
+  Technologies.  See http://nowlab.cse.ohio-state.edu/projects/mpi-iba/ for more
+  details.
+- For users of Mellanox Technologies firmware fw-23108 or fw-25208 only:
+  OSU MPI might fail in its default configuration if your HCA is burnt with an
+  fw-23108 version that is earlier than 3.4.000, or with an fw-25208 version
+  4.7.400 or earlier.
+  Workaround:
+  Option 1 - Update the firmware
+  Option 2 - In mvapich.conf, set VIADEV_SRQ_ENABLE=0
+- MVAPICH may fail to run on some SLES 10 machines due to problems in resolving
+  the host name.
+  Workaround: Edit /etc/hosts and comment-out/remove the line that maps 
+  IP address 127.0.0.2 to the system's fully qualified hostname.
+
+Main Verification Flows
+-----------------------
+In order to verify the correctness of OSU MPI, the following tests and
+parameters were run.
+
+Test                           Description
+===================================================================
+Intel's                        test suite 1400 Intel tests
+BW/LT                          OSU's test for bandwidth latency
+IMB                            Intel's MPI Benchmark test
+mpitest                        b_eff test
+Presta                                 Presta multicast test
+Linpack                        Linpack benchmark
+NAS2.3                                 NAS NPB2.3 tests
+SuperLU                        SuperLU benchmark (NERSC edition)
+NAMD                           NAMD application
+CAM                            CAM application
diff --git a/osu_mpi_release_notes.txt b/osu_mpi_release_notes.txt
deleted file mode 100644 (file)
index f67633d..0000000
+++ /dev/null
@@ -1,80 +0,0 @@
-             Open Fabrics Enterprise Distribution (OFED)
-          OSU MPI MVAPICH-0.9.9, in OFED 1.2 Release Notes
-
-                          June 2007
-
-
-Overview
---------
-These are the release notes for OSU MPI MVAPICH-0.9.9.
-OSU MPI is an MPI channel implementation over InfiniBand 
-from Ohio State University (OSU).
-
-(http://nowlab.cse.ohio-state.edu/projects/mpi-iba/).
-
-Software Dependencies
----------------------
-OSU MPI depends on the installation of the OFED Distribution stack with OpenSM
-running. The MPI module also requires an established network interface (either
-InfiniBand IPoIB or Ethernet).
-
-New Features ( compared to mvapich 0.9.7-mlnx2.2.0 )
-------------
-This version for OFED has the following additional features:
-- Improved message coalescing:
-  * Reduction of per QP send queues for reduction in memory requirement
-  * Increases the small message messaging rate significantly
-- Multi-core optimizations:
-  * Optimized scalable shared memory design 
-  * Optimized, high-performance shared memory aware collective operations
-  * Multi-port support for enabling user processes to bind to different IB ports
-    for balanced communication performance
-- On-demand connection management using native IB UD support
-- Multi-path support for hot-spot avoidance in large scale clusters
-- Memory Hook Support provided by integration with ptmalloc2 library
-
-Bug Fixes
----------
-- Error report fixes.
-- PKEY support fix.
-
-Known Issues
-------------
-- A process running MPI cannot fork after MPI_Init. Using fork might cause a
-  segmentation fault.
-- Using mpirun with ssh has a signal collection problem. Killing the run
-  (using CTRL-C) might leave some of the processes running on some of the
-  nodes. This can also happen if one of the processes exits with an error.
-  Note: This problem does not exist with rsh.
-- The MPD job launcher feature of OSU MPI module has not been tested by Mellanox
-  Technologies.  See http://nowlab.cse.ohio-state.edu/projects/mpi-iba/ for more
-  details.
-- For users of Mellanox Technologies firmware fw-23108 or fw-25208 only:
-  OSU MPI might fail in its default configuration if your HCA is burnt with an
-  fw-23108 version that is earlier than 3.4.000, or with an fw-25208 version
-  4.7.400 or earlier.
-  Workaround:
-  Option 1 - Update the firmware
-  Option 2 - In mvapich.conf, set VIADEV_SRQ_ENABLE=0
-- MVAPICH may fail to run on some SLES 10 machines due to problems in resolving
-  the host name.
-  Workaround: Edit /etc/hosts and comment-out/remove the line that maps 
-  IP address 127.0.0.2 to the system's fully qualified hostname.
-
-Main Verification Flows
------------------------
-In order to verify the correctness of OSU MPI, the following tests and
-parameters were run.
-
-Test                           Description
-===================================================================
-Intel's                        test suite 1400 Intel tests
-BW/LT                          OSU's test for bandwidth latency
-IMB                            Intel's MPI Benchmark test
-mpitest                        b_eff test
-Presta                                 Presta multicast test
-Linpack                        Linpack benchmark
-NAS2.3                                 NAS NPB2.3 tests
-SuperLU                        SuperLU benchmark (NERSC edition)
-NAMD                           NAMD application
-CAM                            CAM application