[PATCH] pgdat allocation for new node add (generic alloc node_data)
[safe/jmp/linux-2.6] / include / linux / memory_hotplug.h
1 #ifndef __LINUX_MEMORY_HOTPLUG_H
2 #define __LINUX_MEMORY_HOTPLUG_H
3
4 #include <linux/mmzone.h>
5 #include <linux/spinlock.h>
6 #include <linux/mmzone.h>
7 #include <linux/notifier.h>
8
9 struct page;
10 struct zone;
11 struct pglist_data;
12
13 #ifdef CONFIG_MEMORY_HOTPLUG
14 /*
15  * pgdat resizing functions
16  */
17 static inline
18 void pgdat_resize_lock(struct pglist_data *pgdat, unsigned long *flags)
19 {
20         spin_lock_irqsave(&pgdat->node_size_lock, *flags);
21 }
22 static inline
23 void pgdat_resize_unlock(struct pglist_data *pgdat, unsigned long *flags)
24 {
25         spin_unlock_irqrestore(&pgdat->node_size_lock, *flags);
26 }
27 static inline
28 void pgdat_resize_init(struct pglist_data *pgdat)
29 {
30         spin_lock_init(&pgdat->node_size_lock);
31 }
32 /*
33  * Zone resizing functions
34  */
35 static inline unsigned zone_span_seqbegin(struct zone *zone)
36 {
37         return read_seqbegin(&zone->span_seqlock);
38 }
39 static inline int zone_span_seqretry(struct zone *zone, unsigned iv)
40 {
41         return read_seqretry(&zone->span_seqlock, iv);
42 }
43 static inline void zone_span_writelock(struct zone *zone)
44 {
45         write_seqlock(&zone->span_seqlock);
46 }
47 static inline void zone_span_writeunlock(struct zone *zone)
48 {
49         write_sequnlock(&zone->span_seqlock);
50 }
51 static inline void zone_seqlock_init(struct zone *zone)
52 {
53         seqlock_init(&zone->span_seqlock);
54 }
55 extern int zone_grow_free_lists(struct zone *zone, unsigned long new_nr_pages);
56 extern int zone_grow_waitqueues(struct zone *zone, unsigned long nr_pages);
57 extern int add_one_highpage(struct page *page, int pfn, int bad_ppro);
58 /* need some defines for these for archs that don't support it */
59 extern void online_page(struct page *page);
60 /* VM interface that may be used by firmware interface */
61 extern int online_pages(unsigned long, unsigned long);
62
63 /* reasonably generic interface to expand the physical pages in a zone  */
64 extern int __add_pages(struct zone *zone, unsigned long start_pfn,
65         unsigned long nr_pages);
66
67 #ifdef CONFIG_NUMA
68 extern int memory_add_physaddr_to_nid(u64 start);
69 #else
70 static inline int memory_add_physaddr_to_nid(u64 start)
71 {
72         return 0;
73 }
74 #endif
75
76 #ifdef CONFIG_HAVE_ARCH_NODEDATA_EXTENSION
77 /*
78  * For supporting node-hotadd, we have to allocate a new pgdat.
79  *
80  * If an arch has generic style NODE_DATA(),
81  * node_data[nid] = kzalloc() works well. But it depends on the architecture.
82  *
83  * In general, generic_alloc_nodedata() is used.
84  * Now, arch_free_nodedata() is just defined for error path of node_hot_add.
85  *
86  */
87 static inline pg_data_t *arch_alloc_nodedata(int nid)
88 {
89         return NULL;
90 }
91 static inline void arch_free_nodedata(pg_data_t *pgdat)
92 {
93 }
94
95 #else /* CONFIG_HAVE_ARCH_NODEDATA_EXTENSION */
96
97 #define arch_alloc_nodedata(nid)        generic_alloc_nodedata(nid)
98 #define arch_free_nodedata(pgdat)       generic_free_nodedata(pgdat)
99
100 #ifdef CONFIG_NUMA
101 /*
102  * If ARCH_HAS_NODEDATA_EXTENSION=n, this func is used to allocate pgdat.
103  * XXX: kmalloc_node() can't work well to get new node's memory at this time.
104  *      Because, pgdat for the new node is not allocated/initialized yet itself.
105  *      To use new node's memory, more consideration will be necessary.
106  */
107 #define generic_alloc_nodedata(nid)                             \
108 ({                                                              \
109         kzalloc(sizeof(pg_data_t), GFP_KERNEL);                 \
110 })
111 /*
112  * This definition is just for error path in node hotadd.
113  * For node hotremove, we have to replace this.
114  */
115 #define generic_free_nodedata(pgdat)    kfree(pgdat)
116
117 #else /* !CONFIG_NUMA */
118
119 /* never called */
120 static inline pg_data_t *generic_alloc_nodedata(int nid)
121 {
122         BUG();
123         return NULL;
124 }
125 static inline void generic_free_nodedata(pg_data_t *pgdat)
126 {
127 }
128 #endif /* CONFIG_NUMA */
129 #endif /* CONFIG_HAVE_ARCH_NODEDATA_EXTENSION */
130
131 #else /* ! CONFIG_MEMORY_HOTPLUG */
132 /*
133  * Stub functions for when hotplug is off
134  */
135 static inline void pgdat_resize_lock(struct pglist_data *p, unsigned long *f) {}
136 static inline void pgdat_resize_unlock(struct pglist_data *p, unsigned long *f) {}
137 static inline void pgdat_resize_init(struct pglist_data *pgdat) {}
138
139 static inline unsigned zone_span_seqbegin(struct zone *zone)
140 {
141         return 0;
142 }
143 static inline int zone_span_seqretry(struct zone *zone, unsigned iv)
144 {
145         return 0;
146 }
147 static inline void zone_span_writelock(struct zone *zone) {}
148 static inline void zone_span_writeunlock(struct zone *zone) {}
149 static inline void zone_seqlock_init(struct zone *zone) {}
150
151 static inline int mhp_notimplemented(const char *func)
152 {
153         printk(KERN_WARNING "%s() called, with CONFIG_MEMORY_HOTPLUG disabled\n", func);
154         dump_stack();
155         return -ENOSYS;
156 }
157
158 #endif /* ! CONFIG_MEMORY_HOTPLUG */
159 static inline int __remove_pages(struct zone *zone, unsigned long start_pfn,
160         unsigned long nr_pages)
161 {
162         printk(KERN_WARNING "%s() called, not yet supported\n", __FUNCTION__);
163         dump_stack();
164         return -ENOSYS;
165 }
166
167 extern int add_memory(int nid, u64 start, u64 size);
168 extern int arch_add_memory(int nid, u64 start, u64 size);
169 extern int remove_memory(u64 start, u64 size);
170
171 #endif /* __LINUX_MEMORY_HOTPLUG_H */