HWPOISON: return early on non-LRU pages
[safe/jmp/linux-2.6] / mm / bounce.c
index 179fe38..a2b76a5 100644 (file)
 #include <linux/init.h>
 #include <linux/hash.h>
 #include <linux/highmem.h>
-#include <linux/blktrace_api.h>
 #include <asm/tlbflush.h>
 
+#include <trace/events/block.h>
+
 #define POOL_SIZE      64
 #define ISA_POOL_SIZE  16
 
@@ -140,26 +141,19 @@ static void bounce_end_io(struct bio *bio, mempool_t *pool, int err)
                mempool_free(bvec->bv_page, pool);
        }
 
-       bio_endio(bio_orig, bio_orig->bi_size, err);
+       bio_endio(bio_orig, err);
        bio_put(bio);
 }
 
-static int bounce_end_io_write(struct bio *bio, unsigned int bytes_done, int err)
+static void bounce_end_io_write(struct bio *bio, int err)
 {
-       if (bio->bi_size)
-               return 1;
-
        bounce_end_io(bio, page_pool, err);
-       return 0;
 }
 
-static int bounce_end_io_write_isa(struct bio *bio, unsigned int bytes_done, int err)
+static void bounce_end_io_write_isa(struct bio *bio, int err)
 {
-       if (bio->bi_size)
-               return 1;
 
        bounce_end_io(bio, isa_page_pool, err);
-       return 0;
 }
 
 static void __bounce_end_io_read(struct bio *bio, mempool_t *pool, int err)
@@ -172,22 +166,14 @@ static void __bounce_end_io_read(struct bio *bio, mempool_t *pool, int err)
        bounce_end_io(bio, pool, err);
 }
 
-static int bounce_end_io_read(struct bio *bio, unsigned int bytes_done, int err)
+static void bounce_end_io_read(struct bio *bio, int err)
 {
-       if (bio->bi_size)
-               return 1;
-
        __bounce_end_io_read(bio, page_pool, err);
-       return 0;
 }
 
-static int bounce_end_io_read_isa(struct bio *bio, unsigned int bytes_done, int err)
+static void bounce_end_io_read_isa(struct bio *bio, int err)
 {
-       if (bio->bi_size)
-               return 1;
-
        __bounce_end_io_read(bio, isa_page_pool, err);
-       return 0;
 }
 
 static void __blk_queue_bounce(struct request_queue *q, struct bio **bio_orig,
@@ -204,14 +190,19 @@ static void __blk_queue_bounce(struct request_queue *q, struct bio **bio_orig,
                /*
                 * is destination page below bounce pfn?
                 */
-               if (page_to_pfn(page) <= q->bounce_pfn)
+               if (page_to_pfn(page) <= queue_bounce_pfn(q))
                        continue;
 
                /*
                 * irk, bounce it
                 */
-               if (!bio)
-                       bio = bio_alloc(GFP_NOIO, (*bio_orig)->bi_vcnt);
+               if (!bio) {
+                       unsigned int cnt = (*bio_orig)->bi_vcnt;
+
+                       bio = bio_alloc(GFP_NOIO, cnt);
+                       memset(bio->bi_io_vec, 0, cnt * sizeof(struct bio_vec));
+               }
+                       
 
                to = bio->bi_io_vec + i;
 
@@ -237,7 +228,7 @@ static void __blk_queue_bounce(struct request_queue *q, struct bio **bio_orig,
        if (!bio)
                return;
 
-       blk_add_trace_bio(q, *bio_orig, BLK_TA_BOUNCE);
+       trace_block_bio_bounce(q, *bio_orig);
 
        /*
         * at least one page was bounced, fill in possible non-highmem
@@ -280,12 +271,18 @@ void blk_queue_bounce(struct request_queue *q, struct bio **bio_orig)
        mempool_t *pool;
 
        /*
+        * Data-less bio, nothing to bounce
+        */
+       if (!bio_has_data(*bio_orig))
+               return;
+
+       /*
         * for non-isa bounce case, just check if the bounce pfn is equal
         * to or bigger than the highest pfn in the system -- in that case,
         * don't waste time iterating over bio segments
         */
        if (!(q->bounce_gfp & GFP_DMA)) {
-               if (q->bounce_pfn >= blk_max_pfn)
+               if (queue_bounce_pfn(q) >= blk_max_pfn)
                        return;
                pool = page_pool;
        } else {