tracing: Convert some kmem events to DEFINE_EVENT
[safe/jmp/linux-2.6] / mm / util.c
1 #include <linux/mm.h>
2 #include <linux/slab.h>
3 #include <linux/string.h>
4 #include <linux/module.h>
5 #include <linux/err.h>
6 #include <linux/sched.h>
7 #include <asm/uaccess.h>
8
9 /**
10  * kstrdup - allocate space for and copy an existing string
11  * @s: the string to duplicate
12  * @gfp: the GFP mask used in the kmalloc() call when allocating memory
13  */
14 char *kstrdup(const char *s, gfp_t gfp)
15 {
16         size_t len;
17         char *buf;
18
19         if (!s)
20                 return NULL;
21
22         len = strlen(s) + 1;
23         buf = kmalloc_track_caller(len, gfp);
24         if (buf)
25                 memcpy(buf, s, len);
26         return buf;
27 }
28 EXPORT_SYMBOL(kstrdup);
29
30 /**
31  * kstrndup - allocate space for and copy an existing string
32  * @s: the string to duplicate
33  * @max: read at most @max chars from @s
34  * @gfp: the GFP mask used in the kmalloc() call when allocating memory
35  */
36 char *kstrndup(const char *s, size_t max, gfp_t gfp)
37 {
38         size_t len;
39         char *buf;
40
41         if (!s)
42                 return NULL;
43
44         len = strnlen(s, max);
45         buf = kmalloc_track_caller(len+1, gfp);
46         if (buf) {
47                 memcpy(buf, s, len);
48                 buf[len] = '\0';
49         }
50         return buf;
51 }
52 EXPORT_SYMBOL(kstrndup);
53
54 /**
55  * kmemdup - duplicate region of memory
56  *
57  * @src: memory region to duplicate
58  * @len: memory region length
59  * @gfp: GFP mask to use
60  */
61 void *kmemdup(const void *src, size_t len, gfp_t gfp)
62 {
63         void *p;
64
65         p = kmalloc_track_caller(len, gfp);
66         if (p)
67                 memcpy(p, src, len);
68         return p;
69 }
70 EXPORT_SYMBOL(kmemdup);
71
72 /**
73  * memdup_user - duplicate memory region from user space
74  *
75  * @src: source address in user space
76  * @len: number of bytes to copy
77  *
78  * Returns an ERR_PTR() on failure.
79  */
80 void *memdup_user(const void __user *src, size_t len)
81 {
82         void *p;
83
84         /*
85          * Always use GFP_KERNEL, since copy_from_user() can sleep and
86          * cause pagefault, which makes it pointless to use GFP_NOFS
87          * or GFP_ATOMIC.
88          */
89         p = kmalloc_track_caller(len, GFP_KERNEL);
90         if (!p)
91                 return ERR_PTR(-ENOMEM);
92
93         if (copy_from_user(p, src, len)) {
94                 kfree(p);
95                 return ERR_PTR(-EFAULT);
96         }
97
98         return p;
99 }
100 EXPORT_SYMBOL(memdup_user);
101
102 /**
103  * __krealloc - like krealloc() but don't free @p.
104  * @p: object to reallocate memory for.
105  * @new_size: how many bytes of memory are required.
106  * @flags: the type of memory to allocate.
107  *
108  * This function is like krealloc() except it never frees the originally
109  * allocated buffer. Use this if you don't want to free the buffer immediately
110  * like, for example, with RCU.
111  */
112 void *__krealloc(const void *p, size_t new_size, gfp_t flags)
113 {
114         void *ret;
115         size_t ks = 0;
116
117         if (unlikely(!new_size))
118                 return ZERO_SIZE_PTR;
119
120         if (p)
121                 ks = ksize(p);
122
123         if (ks >= new_size)
124                 return (void *)p;
125
126         ret = kmalloc_track_caller(new_size, flags);
127         if (ret && p)
128                 memcpy(ret, p, ks);
129
130         return ret;
131 }
132 EXPORT_SYMBOL(__krealloc);
133
134 /**
135  * krealloc - reallocate memory. The contents will remain unchanged.
136  * @p: object to reallocate memory for.
137  * @new_size: how many bytes of memory are required.
138  * @flags: the type of memory to allocate.
139  *
140  * The contents of the object pointed to are preserved up to the
141  * lesser of the new and old sizes.  If @p is %NULL, krealloc()
142  * behaves exactly like kmalloc().  If @size is 0 and @p is not a
143  * %NULL pointer, the object pointed to is freed.
144  */
145 void *krealloc(const void *p, size_t new_size, gfp_t flags)
146 {
147         void *ret;
148
149         if (unlikely(!new_size)) {
150                 kfree(p);
151                 return ZERO_SIZE_PTR;
152         }
153
154         ret = __krealloc(p, new_size, flags);
155         if (ret && p != ret)
156                 kfree(p);
157
158         return ret;
159 }
160 EXPORT_SYMBOL(krealloc);
161
162 /**
163  * kzfree - like kfree but zero memory
164  * @p: object to free memory of
165  *
166  * The memory of the object @p points to is zeroed before freed.
167  * If @p is %NULL, kzfree() does nothing.
168  *
169  * Note: this function zeroes the whole allocated buffer which can be a good
170  * deal bigger than the requested buffer size passed to kmalloc(). So be
171  * careful when using this function in performance sensitive code.
172  */
173 void kzfree(const void *p)
174 {
175         size_t ks;
176         void *mem = (void *)p;
177
178         if (unlikely(ZERO_OR_NULL_PTR(mem)))
179                 return;
180         ks = ksize(mem);
181         memset(mem, 0, ks);
182         kfree(mem);
183 }
184 EXPORT_SYMBOL(kzfree);
185
186 /*
187  * strndup_user - duplicate an existing string from user space
188  * @s: The string to duplicate
189  * @n: Maximum number of bytes to copy, including the trailing NUL.
190  */
191 char *strndup_user(const char __user *s, long n)
192 {
193         char *p;
194         long length;
195
196         length = strnlen_user(s, n);
197
198         if (!length)
199                 return ERR_PTR(-EFAULT);
200
201         if (length > n)
202                 return ERR_PTR(-EINVAL);
203
204         p = kmalloc(length, GFP_KERNEL);
205
206         if (!p)
207                 return ERR_PTR(-ENOMEM);
208
209         if (copy_from_user(p, s, length)) {
210                 kfree(p);
211                 return ERR_PTR(-EFAULT);
212         }
213
214         p[length - 1] = '\0';
215
216         return p;
217 }
218 EXPORT_SYMBOL(strndup_user);
219
220 #ifndef HAVE_ARCH_PICK_MMAP_LAYOUT
221 void arch_pick_mmap_layout(struct mm_struct *mm)
222 {
223         mm->mmap_base = TASK_UNMAPPED_BASE;
224         mm->get_unmapped_area = arch_get_unmapped_area;
225         mm->unmap_area = arch_unmap_area;
226 }
227 #endif
228
229 /**
230  * get_user_pages_fast() - pin user pages in memory
231  * @start:      starting user address
232  * @nr_pages:   number of pages from start to pin
233  * @write:      whether pages will be written to
234  * @pages:      array that receives pointers to the pages pinned.
235  *              Should be at least nr_pages long.
236  *
237  * Returns number of pages pinned. This may be fewer than the number
238  * requested. If nr_pages is 0 or negative, returns 0. If no pages
239  * were pinned, returns -errno.
240  *
241  * get_user_pages_fast provides equivalent functionality to get_user_pages,
242  * operating on current and current->mm, with force=0 and vma=NULL. However
243  * unlike get_user_pages, it must be called without mmap_sem held.
244  *
245  * get_user_pages_fast may take mmap_sem and page table locks, so no
246  * assumptions can be made about lack of locking. get_user_pages_fast is to be
247  * implemented in a way that is advantageous (vs get_user_pages()) when the
248  * user memory area is already faulted in and present in ptes. However if the
249  * pages have to be faulted in, it may turn out to be slightly slower so
250  * callers need to carefully consider what to use. On many architectures,
251  * get_user_pages_fast simply falls back to get_user_pages.
252  */
253 int __attribute__((weak)) get_user_pages_fast(unsigned long start,
254                                 int nr_pages, int write, struct page **pages)
255 {
256         struct mm_struct *mm = current->mm;
257         int ret;
258
259         down_read(&mm->mmap_sem);
260         ret = get_user_pages(current, mm, start, nr_pages,
261                                         write, 0, pages, NULL);
262         up_read(&mm->mmap_sem);
263
264         return ret;
265 }
266 EXPORT_SYMBOL_GPL(get_user_pages_fast);
267
268 /* Tracepoints definitions. */
269 EXPORT_TRACEPOINT_SYMBOL(kmalloc);
270 EXPORT_TRACEPOINT_SYMBOL(kmem_cache_alloc);
271 EXPORT_TRACEPOINT_SYMBOL(kmalloc_node);
272 EXPORT_TRACEPOINT_SYMBOL(kmem_cache_alloc_node);
273 EXPORT_TRACEPOINT_SYMBOL(kfree);
274 EXPORT_TRACEPOINT_SYMBOL(kmem_cache_free);