]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blobdiff - include/linux/slub_def.h
slub: Determine gfpflags once and not every time a slab is allocated
[linux-2.6-omap-h63xx.git] / include / linux / slub_def.h
index ddb1a706b144036dd1805eac5baa66784adbbc29..98be113cf935078cc0e84974a972aedfc0c2e025 100644 (file)
 #include <linux/workqueue.h>
 #include <linux/kobject.h>
 
+enum stat_item {
+       ALLOC_FASTPATH,         /* Allocation from cpu slab */
+       ALLOC_SLOWPATH,         /* Allocation by getting a new cpu slab */
+       FREE_FASTPATH,          /* Free to cpu slub */
+       FREE_SLOWPATH,          /* Freeing not to cpu slab */
+       FREE_FROZEN,            /* Freeing to frozen slab */
+       FREE_ADD_PARTIAL,       /* Freeing moves slab to partial list */
+       FREE_REMOVE_PARTIAL,    /* Freeing removes last object */
+       ALLOC_FROM_PARTIAL,     /* Cpu slab acquired from partial list */
+       ALLOC_SLAB,             /* Cpu slab acquired from page allocator */
+       ALLOC_REFILL,           /* Refill cpu slab from slab freelist */
+       FREE_SLAB,              /* Slab freed to the page allocator */
+       CPUSLAB_FLUSH,          /* Abandoning of the cpu slab */
+       DEACTIVATE_FULL,        /* Cpu slab was full when deactivated */
+       DEACTIVATE_EMPTY,       /* Cpu slab was empty when deactivated */
+       DEACTIVATE_TO_HEAD,     /* Cpu slab was moved to the head of partials */
+       DEACTIVATE_TO_TAIL,     /* Cpu slab was moved to the tail of partials */
+       DEACTIVATE_REMOTE_FREES,/* Slab contained remotely freed objects */
+       NR_SLUB_STAT_ITEMS };
+
 struct kmem_cache_cpu {
        void **freelist;        /* Pointer to first free per cpu object */
        struct page *page;      /* The slab from which we are allocating */
        int node;               /* The node of the page (or -1 for debug) */
        unsigned int offset;    /* Freepointer offset (in word units) */
        unsigned int objsize;   /* Size of an object (from kmem_cache) */
+#ifdef CONFIG_SLUB_STATS
+       unsigned stat[NR_SLUB_STAT_ITEMS];
+#endif
 };
 
 struct kmem_cache_node {
@@ -48,6 +71,7 @@ struct kmem_cache {
 
        /* Allocation and freeing of slabs */
        int objects;            /* Number of objects in slab */
+       gfp_t allocflags;       /* gfp flags to use on each alloc */
        int refcount;           /* Refcount for slab cache destroy */
        void (*ctor)(struct kmem_cache *, void *);
        int inuse;              /* Offset to metadata */
@@ -165,12 +189,16 @@ static __always_inline struct kmem_cache *kmalloc_slab(size_t size)
 void *kmem_cache_alloc(struct kmem_cache *, gfp_t);
 void *__kmalloc(size_t size, gfp_t flags);
 
+static __always_inline void *kmalloc_large(size_t size, gfp_t flags)
+{
+       return (void *)__get_free_pages(flags | __GFP_COMP, get_order(size));
+}
+
 static __always_inline void *kmalloc(size_t size, gfp_t flags)
 {
        if (__builtin_constant_p(size)) {
                if (size > PAGE_SIZE / 2)
-                       return (void *)__get_free_pages(flags | __GFP_COMP,
-                                                       get_order(size));
+                       return kmalloc_large(size, flags);
 
                if (!(flags & SLUB_DMA)) {
                        struct kmem_cache *s = kmalloc_slab(size);