]> git.openfabrics.org - ~shefty/rdma-dev.git/commitdiff
x86: fix performance regression in write() syscall
authorSalman Qazi <sqazi@google.com>
Tue, 24 Feb 2009 02:03:04 +0000 (18:03 -0800)
committerIngo Molnar <mingo@elte.hu>
Tue, 24 Feb 2009 16:16:36 +0000 (17:16 +0100)
While the introduction of __copy_from_user_nocache (see commit:
0812a579c92fefa57506821fa08e90f47cb6dbdd) may have been an improvement
for sufficiently large writes, there is evidence to show that it is
deterimental for small writes.  Unixbench's fstime test gives the
following results for 256 byte writes with MAX_BLOCK of 2000:

    2.6.29-rc6 ( 5 samples, each in KB/sec ):
    283750, 295200, 294500, 293000, 293300

    2.6.29-rc6 + this patch (5 samples, each in KB/sec):
    313050, 3106750, 293350, 306300, 307900

    2.6.18
    395700, 342000, 399100, 366050, 359850

    See w_test() in src/fstime.c in unixbench version 4.1.0.  Basically, the above test
    consists of counting how much we can write in this manner:

    alarm(10);
    while (!sigalarm) {
            for (f_blocks = 0; f_blocks < 2000; ++f_blocks) {
                   write(f, buf, 256);
            }
            lseek(f, 0L, 0);
    }

Note, there are other components to the write syscall regression
that are not addressed here.

Signed-off-by: Salman Qazi <sqazi@google.com>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Signed-off-by: Ingo Molnar <mingo@elte.hu>
arch/x86/include/asm/uaccess_64.h

index 84210c479fca83524c6cef4c6bc069bcff76e272..987a2c10fe2068df1c97c88281ed121406ecf614 100644 (file)
@@ -192,14 +192,26 @@ static inline int __copy_from_user_nocache(void *dst, const void __user *src,
                                           unsigned size)
 {
        might_sleep();
-       return __copy_user_nocache(dst, src, size, 1);
+       /*
+        * In practice this limit means that large file write()s
+        * which get chunked to 4K copies get handled via
+        * non-temporal stores here. Smaller writes get handled
+        * via regular __copy_from_user():
+        */
+       if (likely(size >= PAGE_SIZE))
+               return __copy_user_nocache(dst, src, size, 1);
+       else
+               return __copy_from_user(dst, src, size);
 }
 
 static inline int __copy_from_user_inatomic_nocache(void *dst,
                                                    const void __user *src,
                                                    unsigned size)
 {
-       return __copy_user_nocache(dst, src, size, 0);
+       if (likely(size >= PAGE_SIZE))
+               return __copy_user_nocache(dst, src, size, 0);
+       else
+               return __copy_from_user_inatomic(dst, src, size);
 }
 
 unsigned long