mm: add comment why mark_page_accessed() would be better than pte_mkyoung() in follow...
[safe/jmp/linux-2.6] / mm / slob.c
index 6038cba..7a34115 100644 (file)
--- a/mm/slob.c
+++ b/mm/slob.c
@@ -126,21 +126,26 @@ static LIST_HEAD(free_slob_medium);
 static LIST_HEAD(free_slob_large);
 
 /*
- * slob_page: True for all slob pages (false for bigblock pages)
+ * is_slob_page: True for all slob pages (false for bigblock pages)
  */
-static inline int slob_page(struct slob_page *sp)
+static inline int is_slob_page(struct slob_page *sp)
 {
-       return test_bit(PG_active, &sp->flags);
+       return PageSlobPage((struct page *)sp);
 }
 
 static inline void set_slob_page(struct slob_page *sp)
 {
-       __set_bit(PG_active, &sp->flags);
+       __SetPageSlobPage((struct page *)sp);
 }
 
 static inline void clear_slob_page(struct slob_page *sp)
 {
-       __clear_bit(PG_active, &sp->flags);
+       __ClearPageSlobPage((struct page *)sp);
+}
+
+static inline struct slob_page *slob_page(const void *addr)
+{
+       return (struct slob_page *)virt_to_page(addr);
 }
 
 /*
@@ -148,19 +153,19 @@ static inline void clear_slob_page(struct slob_page *sp)
  */
 static inline int slob_page_free(struct slob_page *sp)
 {
-       return test_bit(PG_private, &sp->flags);
+       return PageSlobFree((struct page *)sp);
 }
 
 static void set_slob_page_free(struct slob_page *sp, struct list_head *list)
 {
        list_add(&sp->list, list);
-       __set_bit(PG_private, &sp->flags);
+       __SetPageSlobFree((struct page *)sp);
 }
 
 static inline void clear_slob_page_free(struct slob_page *sp)
 {
        list_del(&sp->list);
-       __clear_bit(PG_private, &sp->flags);
+       __ClearPageSlobFree((struct page *)sp);
 }
 
 #define SLOB_UNIT sizeof(slob_t)
@@ -230,7 +235,7 @@ static int slob_last(slob_t *s)
        return !((unsigned long)slob_next(s) & ~PAGE_MASK);
 }
 
-static void *slob_new_page(gfp_t gfp, int order, int node)
+static void *slob_new_pages(gfp_t gfp, int order, int node)
 {
        void *page;
 
@@ -247,12 +252,17 @@ static void *slob_new_page(gfp_t gfp, int order, int node)
        return page_address(page);
 }
 
+static void slob_free_pages(void *b, int order)
+{
+       free_pages((unsigned long)b, order);
+}
+
 /*
  * Allocate a slob block within a given slob_page sp.
  */
 static void *slob_page_alloc(struct slob_page *sp, size_t size, int align)
 {
-       slob_t *prev, *cur, *aligned = 0;
+       slob_t *prev, *cur, *aligned = NULL;
        int delta = 0, units = SLOB_UNITS(size);
 
        for (prev = NULL, cur = sp->free; ; prev = cur, cur = slob_next(cur)) {
@@ -349,10 +359,10 @@ static void *slob_alloc(size_t size, gfp_t gfp, int align, int node)
 
        /* Not enough space: must allocate a new page */
        if (!b) {
-               b = slob_new_page(gfp & ~__GFP_ZERO, 0, node);
+               b = slob_new_pages(gfp & ~__GFP_ZERO, 0, node);
                if (!b)
-                       return 0;
-               sp = (struct slob_page *)virt_to_page(b);
+                       return NULL;
+               sp = slob_page(b);
                set_slob_page(sp);
 
                spin_lock_irqsave(&slob_lock, flags);
@@ -384,7 +394,7 @@ static void slob_free(void *block, int size)
                return;
        BUG_ON(!size);
 
-       sp = (struct slob_page *)virt_to_page(block);
+       sp = slob_page(block);
        units = SLOB_UNITS(size);
 
        spin_lock_irqsave(&slob_lock, flags);
@@ -393,10 +403,11 @@ static void slob_free(void *block, int size)
                /* Go directly to page allocator. Do not pass slob allocator */
                if (slob_page_free(sp))
                        clear_slob_page_free(sp);
+               spin_unlock_irqrestore(&slob_lock, flags);
                clear_slob_page(sp);
                free_slob_page(sp);
                free_page((unsigned long)b);
-               goto out;
+               return;
        }
 
        if (!slob_page_free(sp)) {
@@ -464,18 +475,21 @@ void *__kmalloc_node(size_t size, gfp_t gfp, int node)
        unsigned int *m;
        int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
 
+       lockdep_trace_alloc(gfp);
+
        if (size < PAGE_SIZE - align) {
                if (!size)
                        return ZERO_SIZE_PTR;
 
                m = slob_alloc(size + align, gfp, align, node);
-               if (m)
-                       *m = size;
+               if (!m)
+                       return NULL;
+               *m = size;
                return (void *)m + align;
        } else {
                void *ret;
 
-               ret = slob_new_page(gfp | __GFP_COMP, get_order(size), node);
+               ret = slob_new_pages(gfp | __GFP_COMP, get_order(size), node);
                if (ret) {
                        struct page *page;
                        page = virt_to_page(ret);
@@ -493,8 +507,8 @@ void kfree(const void *block)
        if (unlikely(ZERO_OR_NULL_PTR(block)))
                return;
 
-       sp = (struct slob_page *)virt_to_page(block);
-       if (slob_page(sp)) {
+       sp = slob_page(block);
+       if (is_slob_page(sp)) {
                int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
                unsigned int *m = (unsigned int *)(block - align);
                slob_free(m, *m + align);
@@ -512,10 +526,12 @@ size_t ksize(const void *block)
        if (unlikely(block == ZERO_SIZE_PTR))
                return 0;
 
-       sp = (struct slob_page *)virt_to_page(block);
-       if (slob_page(sp))
-               return ((slob_t *)block - 1)->units + SLOB_UNIT;
-       else
+       sp = slob_page(block);
+       if (is_slob_page(sp)) {
+               int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
+               unsigned int *m = (unsigned int *)(block - align);
+               return SLOB_UNITS(*m) * SLOB_UNIT;
+       } else
                return sp->page.private;
 }
 EXPORT_SYMBOL(ksize);
@@ -524,17 +540,16 @@ struct kmem_cache {
        unsigned int size, align;
        unsigned long flags;
        const char *name;
-       void (*ctor)(struct kmem_cache *, void *);
+       void (*ctor)(void *);
 };
 
 struct kmem_cache *kmem_cache_create(const char *name, size_t size,
-       size_t align, unsigned long flags,
-       void (*ctor)(struct kmem_cache *, void *))
+       size_t align, unsigned long flags, void (*ctor)(void *))
 {
        struct kmem_cache *c;
 
        c = slob_alloc(sizeof(struct kmem_cache),
-               flags, ARCH_KMALLOC_MINALIGN, -1);
+               GFP_KERNEL, ARCH_KMALLOC_MINALIGN, -1);
 
        if (c) {
                c->name = name;
@@ -571,10 +586,10 @@ void *kmem_cache_alloc_node(struct kmem_cache *c, gfp_t flags, int node)
        if (c->size < PAGE_SIZE)
                b = slob_alloc(c->size, flags, c->align, node);
        else
-               b = slob_new_page(flags, get_order(c->size), node);
+               b = slob_new_pages(flags, get_order(c->size), node);
 
        if (c->ctor)
-               c->ctor(c, b);
+               c->ctor(b);
 
        return b;
 }
@@ -585,7 +600,7 @@ static void __kmem_cache_free(void *b, int size)
        if (size < PAGE_SIZE)
                slob_free(b, size);
        else
-               free_pages((unsigned long)b, get_order(size));
+               slob_free_pages(b, get_order(size));
 }
 
 static void kmem_rcu_free(struct rcu_head *head)