]> git.openfabrics.org - ~shefty/rdma-win.git/commit
[ND provider] improved latency of ND provider by using INLINE send
authorleonidk <leonidk@ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86>
Thu, 6 Aug 2009 17:13:25 +0000 (17:13 +0000)
committerleonidk <leonidk@ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86>
Thu, 6 Aug 2009 17:13:25 +0000 (17:13 +0000)
commit63818c704511970b84dd8285a2fefbb1ef498fe0
tree48333af70a38b4275b3bed1c21a2629003a40003
parent401f4bced470a988127477a96b7b01fd25f2f98d
[ND provider] improved latency of ND provider by using INLINE send

This patch adds usage of INLINE DATA facility of Mellanox HCAs for improving latency of ND provider.

Here are the ideas of the patch:
    - by default, ND provider will create QP with inline data of 160 bytes;
    (this can enlarge user's QP size)
    - one can change this default by defining environment variable IBNDPROV_MAX_INLINE_SIZE;
    - an ND application, while creating QP, can define the necessary INLINE DATA size; this value takes precedence over the default one.

git-svn-id: svn://openib.tc.cornell.edu/gen1@2333 ad392aa1-c5ef-ae45-8dd8-e69d62a5ef86
trunk/ulp/nd/user/NdEndpoint.cpp
trunk/ulp/nd/user/NdEndpoint.h
trunk/ulp/nd/user/NdProv.cpp