ptrace: ptrace_attach: use send_sig_info() instead force_sig_specific()
[safe/jmp/linux-2.6] / kernel / ptrace.c
1 /*
2  * linux/kernel/ptrace.c
3  *
4  * (C) Copyright 1999 Linus Torvalds
5  *
6  * Common interfaces for "ptrace()" which we do not want
7  * to continually duplicate across every architecture.
8  */
9
10 #include <linux/capability.h>
11 #include <linux/module.h>
12 #include <linux/sched.h>
13 #include <linux/errno.h>
14 #include <linux/mm.h>
15 #include <linux/highmem.h>
16 #include <linux/pagemap.h>
17 #include <linux/smp_lock.h>
18 #include <linux/ptrace.h>
19 #include <linux/security.h>
20 #include <linux/signal.h>
21 #include <linux/audit.h>
22 #include <linux/pid_namespace.h>
23 #include <linux/syscalls.h>
24
25 #include <asm/pgtable.h>
26 #include <asm/uaccess.h>
27
28 /*
29  * ptrace a task: make the debugger its new parent and
30  * move it to the ptrace list.
31  *
32  * Must be called with the tasklist lock write-held.
33  */
34 void __ptrace_link(struct task_struct *child, struct task_struct *new_parent)
35 {
36         BUG_ON(!list_empty(&child->ptrace_list));
37         if (child->parent == new_parent)
38                 return;
39         list_add(&child->ptrace_list, &child->parent->ptrace_children);
40         remove_parent(child);
41         child->parent = new_parent;
42         add_parent(child);
43 }
44  
45 /*
46  * Turn a tracing stop into a normal stop now, since with no tracer there
47  * would be no way to wake it up with SIGCONT or SIGKILL.  If there was a
48  * signal sent that would resume the child, but didn't because it was in
49  * TASK_TRACED, resume it now.
50  * Requires that irqs be disabled.
51  */
52 void ptrace_untrace(struct task_struct *child)
53 {
54         spin_lock(&child->sighand->siglock);
55         if (task_is_traced(child)) {
56                 if (child->signal->flags & SIGNAL_STOP_STOPPED) {
57                         __set_task_state(child, TASK_STOPPED);
58                 } else {
59                         signal_wake_up(child, 1);
60                 }
61         }
62         spin_unlock(&child->sighand->siglock);
63 }
64
65 /*
66  * unptrace a task: move it back to its original parent and
67  * remove it from the ptrace list.
68  *
69  * Must be called with the tasklist lock write-held.
70  */
71 void __ptrace_unlink(struct task_struct *child)
72 {
73         BUG_ON(!child->ptrace);
74
75         child->ptrace = 0;
76         if (ptrace_reparented(child)) {
77                 list_del_init(&child->ptrace_list);
78                 remove_parent(child);
79                 child->parent = child->real_parent;
80                 add_parent(child);
81         }
82
83         if (task_is_traced(child))
84                 ptrace_untrace(child);
85 }
86
87 /*
88  * Check that we have indeed attached to the thing..
89  */
90 int ptrace_check_attach(struct task_struct *child, int kill)
91 {
92         int ret = -ESRCH;
93
94         /*
95          * We take the read lock around doing both checks to close a
96          * possible race where someone else was tracing our child and
97          * detached between these two checks.  After this locked check,
98          * we are sure that this is our traced child and that can only
99          * be changed by us so it's not changing right after this.
100          */
101         read_lock(&tasklist_lock);
102         if ((child->ptrace & PT_PTRACED) && child->parent == current) {
103                 ret = 0;
104                 /*
105                  * child->sighand can't be NULL, release_task()
106                  * does ptrace_unlink() before __exit_signal().
107                  */
108                 spin_lock_irq(&child->sighand->siglock);
109                 if (task_is_stopped(child))
110                         child->state = TASK_TRACED;
111                 else if (!task_is_traced(child) && !kill)
112                         ret = -ESRCH;
113                 spin_unlock_irq(&child->sighand->siglock);
114         }
115         read_unlock(&tasklist_lock);
116
117         if (!ret && !kill)
118                 wait_task_inactive(child);
119
120         /* All systems go.. */
121         return ret;
122 }
123
124 int __ptrace_may_attach(struct task_struct *task)
125 {
126         /* May we inspect the given task?
127          * This check is used both for attaching with ptrace
128          * and for allowing access to sensitive information in /proc.
129          *
130          * ptrace_attach denies several cases that /proc allows
131          * because setting up the necessary parent/child relationship
132          * or halting the specified task is impossible.
133          */
134         int dumpable = 0;
135         /* Don't let security modules deny introspection */
136         if (task == current)
137                 return 0;
138         if (((current->uid != task->euid) ||
139              (current->uid != task->suid) ||
140              (current->uid != task->uid) ||
141              (current->gid != task->egid) ||
142              (current->gid != task->sgid) ||
143              (current->gid != task->gid)) && !capable(CAP_SYS_PTRACE))
144                 return -EPERM;
145         smp_rmb();
146         if (task->mm)
147                 dumpable = get_dumpable(task->mm);
148         if (!dumpable && !capable(CAP_SYS_PTRACE))
149                 return -EPERM;
150
151         return security_ptrace(current, task);
152 }
153
154 int ptrace_may_attach(struct task_struct *task)
155 {
156         int err;
157         task_lock(task);
158         err = __ptrace_may_attach(task);
159         task_unlock(task);
160         return !err;
161 }
162
163 int ptrace_attach(struct task_struct *task)
164 {
165         int retval;
166         unsigned long flags;
167
168         audit_ptrace(task);
169
170         retval = -EPERM;
171         if (task->pid <= 1)
172                 goto out;
173         if (same_thread_group(task, current))
174                 goto out;
175
176 repeat:
177         /*
178          * Nasty, nasty.
179          *
180          * We want to hold both the task-lock and the
181          * tasklist_lock for writing at the same time.
182          * But that's against the rules (tasklist_lock
183          * is taken for reading by interrupts on other
184          * cpu's that may have task_lock).
185          */
186         task_lock(task);
187         if (!write_trylock_irqsave(&tasklist_lock, flags)) {
188                 task_unlock(task);
189                 do {
190                         cpu_relax();
191                 } while (!write_can_lock(&tasklist_lock));
192                 goto repeat;
193         }
194
195         if (!task->mm)
196                 goto bad;
197         /* the same process cannot be attached many times */
198         if (task->ptrace & PT_PTRACED)
199                 goto bad;
200         retval = __ptrace_may_attach(task);
201         if (retval)
202                 goto bad;
203
204         /* Go */
205         task->ptrace |= PT_PTRACED;
206         if (capable(CAP_SYS_PTRACE))
207                 task->ptrace |= PT_PTRACE_CAP;
208
209         __ptrace_link(task, current);
210
211         send_sig_info(SIGSTOP, SEND_SIG_FORCED, task);
212 bad:
213         write_unlock_irqrestore(&tasklist_lock, flags);
214         task_unlock(task);
215 out:
216         return retval;
217 }
218
219 static inline void __ptrace_detach(struct task_struct *child, unsigned int data)
220 {
221         child->exit_code = data;
222         /* .. re-parent .. */
223         __ptrace_unlink(child);
224         /* .. and wake it up. */
225         if (child->exit_state != EXIT_ZOMBIE)
226                 wake_up_process(child);
227 }
228
229 int ptrace_detach(struct task_struct *child, unsigned int data)
230 {
231         if (!valid_signal(data))
232                 return -EIO;
233
234         /* Architecture-specific hardware disable .. */
235         ptrace_disable(child);
236         clear_tsk_thread_flag(child, TIF_SYSCALL_TRACE);
237
238         write_lock_irq(&tasklist_lock);
239         /* protect against de_thread()->release_task() */
240         if (child->ptrace)
241                 __ptrace_detach(child, data);
242         write_unlock_irq(&tasklist_lock);
243
244         return 0;
245 }
246
247 int ptrace_readdata(struct task_struct *tsk, unsigned long src, char __user *dst, int len)
248 {
249         int copied = 0;
250
251         while (len > 0) {
252                 char buf[128];
253                 int this_len, retval;
254
255                 this_len = (len > sizeof(buf)) ? sizeof(buf) : len;
256                 retval = access_process_vm(tsk, src, buf, this_len, 0);
257                 if (!retval) {
258                         if (copied)
259                                 break;
260                         return -EIO;
261                 }
262                 if (copy_to_user(dst, buf, retval))
263                         return -EFAULT;
264                 copied += retval;
265                 src += retval;
266                 dst += retval;
267                 len -= retval;                  
268         }
269         return copied;
270 }
271
272 int ptrace_writedata(struct task_struct *tsk, char __user *src, unsigned long dst, int len)
273 {
274         int copied = 0;
275
276         while (len > 0) {
277                 char buf[128];
278                 int this_len, retval;
279
280                 this_len = (len > sizeof(buf)) ? sizeof(buf) : len;
281                 if (copy_from_user(buf, src, this_len))
282                         return -EFAULT;
283                 retval = access_process_vm(tsk, dst, buf, this_len, 1);
284                 if (!retval) {
285                         if (copied)
286                                 break;
287                         return -EIO;
288                 }
289                 copied += retval;
290                 src += retval;
291                 dst += retval;
292                 len -= retval;                  
293         }
294         return copied;
295 }
296
297 static int ptrace_setoptions(struct task_struct *child, long data)
298 {
299         child->ptrace &= ~PT_TRACE_MASK;
300
301         if (data & PTRACE_O_TRACESYSGOOD)
302                 child->ptrace |= PT_TRACESYSGOOD;
303
304         if (data & PTRACE_O_TRACEFORK)
305                 child->ptrace |= PT_TRACE_FORK;
306
307         if (data & PTRACE_O_TRACEVFORK)
308                 child->ptrace |= PT_TRACE_VFORK;
309
310         if (data & PTRACE_O_TRACECLONE)
311                 child->ptrace |= PT_TRACE_CLONE;
312
313         if (data & PTRACE_O_TRACEEXEC)
314                 child->ptrace |= PT_TRACE_EXEC;
315
316         if (data & PTRACE_O_TRACEVFORKDONE)
317                 child->ptrace |= PT_TRACE_VFORK_DONE;
318
319         if (data & PTRACE_O_TRACEEXIT)
320                 child->ptrace |= PT_TRACE_EXIT;
321
322         return (data & ~PTRACE_O_MASK) ? -EINVAL : 0;
323 }
324
325 static int ptrace_getsiginfo(struct task_struct *child, siginfo_t *info)
326 {
327         int error = -ESRCH;
328
329         read_lock(&tasklist_lock);
330         if (likely(child->sighand != NULL)) {
331                 error = -EINVAL;
332                 spin_lock_irq(&child->sighand->siglock);
333                 if (likely(child->last_siginfo != NULL)) {
334                         *info = *child->last_siginfo;
335                         error = 0;
336                 }
337                 spin_unlock_irq(&child->sighand->siglock);
338         }
339         read_unlock(&tasklist_lock);
340         return error;
341 }
342
343 static int ptrace_setsiginfo(struct task_struct *child, const siginfo_t *info)
344 {
345         int error = -ESRCH;
346
347         read_lock(&tasklist_lock);
348         if (likely(child->sighand != NULL)) {
349                 error = -EINVAL;
350                 spin_lock_irq(&child->sighand->siglock);
351                 if (likely(child->last_siginfo != NULL)) {
352                         *child->last_siginfo = *info;
353                         error = 0;
354                 }
355                 spin_unlock_irq(&child->sighand->siglock);
356         }
357         read_unlock(&tasklist_lock);
358         return error;
359 }
360
361
362 #ifdef PTRACE_SINGLESTEP
363 #define is_singlestep(request)          ((request) == PTRACE_SINGLESTEP)
364 #else
365 #define is_singlestep(request)          0
366 #endif
367
368 #ifdef PTRACE_SINGLEBLOCK
369 #define is_singleblock(request)         ((request) == PTRACE_SINGLEBLOCK)
370 #else
371 #define is_singleblock(request)         0
372 #endif
373
374 #ifdef PTRACE_SYSEMU
375 #define is_sysemu_singlestep(request)   ((request) == PTRACE_SYSEMU_SINGLESTEP)
376 #else
377 #define is_sysemu_singlestep(request)   0
378 #endif
379
380 static int ptrace_resume(struct task_struct *child, long request, long data)
381 {
382         if (!valid_signal(data))
383                 return -EIO;
384
385         if (request == PTRACE_SYSCALL)
386                 set_tsk_thread_flag(child, TIF_SYSCALL_TRACE);
387         else
388                 clear_tsk_thread_flag(child, TIF_SYSCALL_TRACE);
389
390 #ifdef TIF_SYSCALL_EMU
391         if (request == PTRACE_SYSEMU || request == PTRACE_SYSEMU_SINGLESTEP)
392                 set_tsk_thread_flag(child, TIF_SYSCALL_EMU);
393         else
394                 clear_tsk_thread_flag(child, TIF_SYSCALL_EMU);
395 #endif
396
397         if (is_singleblock(request)) {
398                 if (unlikely(!arch_has_block_step()))
399                         return -EIO;
400                 user_enable_block_step(child);
401         } else if (is_singlestep(request) || is_sysemu_singlestep(request)) {
402                 if (unlikely(!arch_has_single_step()))
403                         return -EIO;
404                 user_enable_single_step(child);
405         }
406         else
407                 user_disable_single_step(child);
408
409         child->exit_code = data;
410         wake_up_process(child);
411
412         return 0;
413 }
414
415 int ptrace_request(struct task_struct *child, long request,
416                    long addr, long data)
417 {
418         int ret = -EIO;
419         siginfo_t siginfo;
420
421         switch (request) {
422         case PTRACE_PEEKTEXT:
423         case PTRACE_PEEKDATA:
424                 return generic_ptrace_peekdata(child, addr, data);
425         case PTRACE_POKETEXT:
426         case PTRACE_POKEDATA:
427                 return generic_ptrace_pokedata(child, addr, data);
428
429 #ifdef PTRACE_OLDSETOPTIONS
430         case PTRACE_OLDSETOPTIONS:
431 #endif
432         case PTRACE_SETOPTIONS:
433                 ret = ptrace_setoptions(child, data);
434                 break;
435         case PTRACE_GETEVENTMSG:
436                 ret = put_user(child->ptrace_message, (unsigned long __user *) data);
437                 break;
438
439         case PTRACE_GETSIGINFO:
440                 ret = ptrace_getsiginfo(child, &siginfo);
441                 if (!ret)
442                         ret = copy_siginfo_to_user((siginfo_t __user *) data,
443                                                    &siginfo);
444                 break;
445
446         case PTRACE_SETSIGINFO:
447                 if (copy_from_user(&siginfo, (siginfo_t __user *) data,
448                                    sizeof siginfo))
449                         ret = -EFAULT;
450                 else
451                         ret = ptrace_setsiginfo(child, &siginfo);
452                 break;
453
454         case PTRACE_DETACH:      /* detach a process that was attached. */
455                 ret = ptrace_detach(child, data);
456                 break;
457
458 #ifdef PTRACE_SINGLESTEP
459         case PTRACE_SINGLESTEP:
460 #endif
461 #ifdef PTRACE_SINGLEBLOCK
462         case PTRACE_SINGLEBLOCK:
463 #endif
464 #ifdef PTRACE_SYSEMU
465         case PTRACE_SYSEMU:
466         case PTRACE_SYSEMU_SINGLESTEP:
467 #endif
468         case PTRACE_SYSCALL:
469         case PTRACE_CONT:
470                 return ptrace_resume(child, request, data);
471
472         case PTRACE_KILL:
473                 if (child->exit_state)  /* already dead */
474                         return 0;
475                 return ptrace_resume(child, request, SIGKILL);
476
477         default:
478                 break;
479         }
480
481         return ret;
482 }
483
484 /**
485  * ptrace_traceme  --  helper for PTRACE_TRACEME
486  *
487  * Performs checks and sets PT_PTRACED.
488  * Should be used by all ptrace implementations for PTRACE_TRACEME.
489  */
490 int ptrace_traceme(void)
491 {
492         int ret = -EPERM;
493
494         /*
495          * Are we already being traced?
496          */
497         task_lock(current);
498         if (!(current->ptrace & PT_PTRACED)) {
499                 ret = security_ptrace(current->parent, current);
500                 /*
501                  * Set the ptrace bit in the process ptrace flags.
502                  */
503                 if (!ret)
504                         current->ptrace |= PT_PTRACED;
505         }
506         task_unlock(current);
507         return ret;
508 }
509
510 /**
511  * ptrace_get_task_struct  --  grab a task struct reference for ptrace
512  * @pid:       process id to grab a task_struct reference of
513  *
514  * This function is a helper for ptrace implementations.  It checks
515  * permissions and then grabs a task struct for use of the actual
516  * ptrace implementation.
517  *
518  * Returns the task_struct for @pid or an ERR_PTR() on failure.
519  */
520 struct task_struct *ptrace_get_task_struct(pid_t pid)
521 {
522         struct task_struct *child;
523
524         /*
525          * Tracing init is not allowed.
526          */
527         if (pid == 1)
528                 return ERR_PTR(-EPERM);
529
530         read_lock(&tasklist_lock);
531         child = find_task_by_vpid(pid);
532         if (child)
533                 get_task_struct(child);
534
535         read_unlock(&tasklist_lock);
536         if (!child)
537                 return ERR_PTR(-ESRCH);
538         return child;
539 }
540
541 #ifndef arch_ptrace_attach
542 #define arch_ptrace_attach(child)       do { } while (0)
543 #endif
544
545 #ifndef __ARCH_SYS_PTRACE
546 asmlinkage long sys_ptrace(long request, long pid, long addr, long data)
547 {
548         struct task_struct *child;
549         long ret;
550
551         /*
552          * This lock_kernel fixes a subtle race with suid exec
553          */
554         lock_kernel();
555         if (request == PTRACE_TRACEME) {
556                 ret = ptrace_traceme();
557                 if (!ret)
558                         arch_ptrace_attach(current);
559                 goto out;
560         }
561
562         child = ptrace_get_task_struct(pid);
563         if (IS_ERR(child)) {
564                 ret = PTR_ERR(child);
565                 goto out;
566         }
567
568         if (request == PTRACE_ATTACH) {
569                 ret = ptrace_attach(child);
570                 /*
571                  * Some architectures need to do book-keeping after
572                  * a ptrace attach.
573                  */
574                 if (!ret)
575                         arch_ptrace_attach(child);
576                 goto out_put_task_struct;
577         }
578
579         ret = ptrace_check_attach(child, request == PTRACE_KILL);
580         if (ret < 0)
581                 goto out_put_task_struct;
582
583         ret = arch_ptrace(child, request, addr, data);
584         if (ret < 0)
585                 goto out_put_task_struct;
586
587  out_put_task_struct:
588         put_task_struct(child);
589  out:
590         unlock_kernel();
591         return ret;
592 }
593 #endif /* __ARCH_SYS_PTRACE */
594
595 int generic_ptrace_peekdata(struct task_struct *tsk, long addr, long data)
596 {
597         unsigned long tmp;
598         int copied;
599
600         copied = access_process_vm(tsk, addr, &tmp, sizeof(tmp), 0);
601         if (copied != sizeof(tmp))
602                 return -EIO;
603         return put_user(tmp, (unsigned long __user *)data);
604 }
605
606 int generic_ptrace_pokedata(struct task_struct *tsk, long addr, long data)
607 {
608         int copied;
609
610         copied = access_process_vm(tsk, addr, &data, sizeof(data), 1);
611         return (copied == sizeof(data)) ? 0 : -EIO;
612 }
613
614 #if defined CONFIG_COMPAT && defined __ARCH_WANT_COMPAT_SYS_PTRACE
615 #include <linux/compat.h>
616
617 int compat_ptrace_request(struct task_struct *child, compat_long_t request,
618                           compat_ulong_t addr, compat_ulong_t data)
619 {
620         compat_ulong_t __user *datap = compat_ptr(data);
621         compat_ulong_t word;
622         siginfo_t siginfo;
623         int ret;
624
625         switch (request) {
626         case PTRACE_PEEKTEXT:
627         case PTRACE_PEEKDATA:
628                 ret = access_process_vm(child, addr, &word, sizeof(word), 0);
629                 if (ret != sizeof(word))
630                         ret = -EIO;
631                 else
632                         ret = put_user(word, datap);
633                 break;
634
635         case PTRACE_POKETEXT:
636         case PTRACE_POKEDATA:
637                 ret = access_process_vm(child, addr, &data, sizeof(data), 1);
638                 ret = (ret != sizeof(data) ? -EIO : 0);
639                 break;
640
641         case PTRACE_GETEVENTMSG:
642                 ret = put_user((compat_ulong_t) child->ptrace_message, datap);
643                 break;
644
645         case PTRACE_GETSIGINFO:
646                 ret = ptrace_getsiginfo(child, &siginfo);
647                 if (!ret)
648                         ret = copy_siginfo_to_user32(
649                                 (struct compat_siginfo __user *) datap,
650                                 &siginfo);
651                 break;
652
653         case PTRACE_SETSIGINFO:
654                 memset(&siginfo, 0, sizeof siginfo);
655                 if (copy_siginfo_from_user32(
656                             &siginfo, (struct compat_siginfo __user *) datap))
657                         ret = -EFAULT;
658                 else
659                         ret = ptrace_setsiginfo(child, &siginfo);
660                 break;
661
662         default:
663                 ret = ptrace_request(child, request, addr, data);
664         }
665
666         return ret;
667 }
668
669 asmlinkage long compat_sys_ptrace(compat_long_t request, compat_long_t pid,
670                                   compat_long_t addr, compat_long_t data)
671 {
672         struct task_struct *child;
673         long ret;
674
675         /*
676          * This lock_kernel fixes a subtle race with suid exec
677          */
678         lock_kernel();
679         if (request == PTRACE_TRACEME) {
680                 ret = ptrace_traceme();
681                 goto out;
682         }
683
684         child = ptrace_get_task_struct(pid);
685         if (IS_ERR(child)) {
686                 ret = PTR_ERR(child);
687                 goto out;
688         }
689
690         if (request == PTRACE_ATTACH) {
691                 ret = ptrace_attach(child);
692                 /*
693                  * Some architectures need to do book-keeping after
694                  * a ptrace attach.
695                  */
696                 if (!ret)
697                         arch_ptrace_attach(child);
698                 goto out_put_task_struct;
699         }
700
701         ret = ptrace_check_attach(child, request == PTRACE_KILL);
702         if (!ret)
703                 ret = compat_arch_ptrace(child, request, addr, data);
704
705  out_put_task_struct:
706         put_task_struct(child);
707  out:
708         unlock_kernel();
709         return ret;
710 }
711 #endif  /* CONFIG_COMPAT && __ARCH_WANT_COMPAT_SYS_PTRACE */