[MIPS] Wire up set_robust_list(2) and get_robust_list(2)
authorAtsushi Nemoto <anemo@mba.ocn.ne.jp>
Wed, 6 Sep 2006 13:42:02 +0000 (22:42 +0900)
committerRalf Baechle <ralf@linux-mips.org>
Wed, 27 Sep 2006 12:37:40 +0000 (13:37 +0100)
Signed-off-by: Atsushi Nemoto <anemo@mba.ocn.ne.jp>
Signed-off-by: Ralf Baechle <ralf@linux-mips.org>
arch/mips/kernel/scall32-o32.S
arch/mips/kernel/scall64-64.S
arch/mips/kernel/scall64-n32.S
arch/mips/kernel/scall64-o32.S
include/asm-mips/unistd.h

index ba1bcd8..e717851 100644 (file)
@@ -662,6 +662,8 @@ einval:     li      v0, -EINVAL
        sys     sys_tee                 4
        sys     sys_vmsplice            4
        sys     sys_move_pages          6
+       sys     sys_set_robust_list     2
+       sys     sys_get_robust_list     3
        .endm
 
        /* We pre-compute the number of _instruction_ bytes needed to
index 939e172..4c22d0b 100644 (file)
@@ -466,3 +466,5 @@ sys_call_table:
        PTR     sys_tee                         /* 5265 */
        PTR     sys_vmsplice
        PTR     sys_move_pages
+       PTR     sys_set_robust_list
+       PTR     sys_get_robust_list
index 549b4bc..f25c2a2 100644 (file)
@@ -390,5 +390,7 @@ EXPORT(sysn32_call_table)
        PTR     sys_splice
        PTR     sys_sync_file_range
        PTR     sys_tee
-       PTR     sys_vmsplice                    /* 6271 */
+       PTR     sys_vmsplice                    /* 6270 */
        PTR     sys_move_pages
+       PTR     compat_sys_set_robust_list
+       PTR     compat_sys_get_robust_list
index 505c9ee..2ac0141 100644 (file)
@@ -514,4 +514,6 @@ sys_call_table:
        PTR     sys_tee
        PTR     sys_vmsplice
        PTR     compat_sys_move_pages
+       PTR     compat_sys_set_robust_list
+       PTR     compat_sys_get_robust_list      /* 4310 */
        .size   sys_call_table,.-sys_call_table
index 610ccb8..558e3cb 100644 (file)
 #define __NR_tee                       (__NR_Linux + 306)
 #define __NR_vmsplice                  (__NR_Linux + 307)
 #define __NR_move_pages                        (__NR_Linux + 308)
+#define __NR_set_robust_list           (__NR_Linux + 309)
+#define __NR_get_robust_list           (__NR_Linux + 310)
 
 /*
  * Offset of the last Linux o32 flavoured syscall
  */
-#define __NR_Linux_syscalls            308
+#define __NR_Linux_syscalls            310
 
 #endif /* _MIPS_SIM == _MIPS_SIM_ABI32 */
 
 #define __NR_O32_Linux                 4000
-#define __NR_O32_Linux_syscalls                308
+#define __NR_O32_Linux_syscalls                310
 
 #if _MIPS_SIM == _MIPS_SIM_ABI64
 
 #define __NR_tee                       (__NR_Linux + 265)
 #define __NR_vmsplice                  (__NR_Linux + 266)
 #define __NR_move_pages                        (__NR_Linux + 267)
+#define __NR_set_robust_list           (__NR_Linux + 268)
+#define __NR_get_robust_list           (__NR_Linux + 269)
 
 /*
  * Offset of the last Linux 64-bit flavoured syscall
  */
-#define __NR_Linux_syscalls            267
+#define __NR_Linux_syscalls            269
 
 #endif /* _MIPS_SIM == _MIPS_SIM_ABI64 */
 
 #define __NR_64_Linux                  5000
-#define __NR_64_Linux_syscalls         267
+#define __NR_64_Linux_syscalls         269
 
 #if _MIPS_SIM == _MIPS_SIM_NABI32
 
 #define __NR_tee                       (__NR_Linux + 269)
 #define __NR_vmsplice                  (__NR_Linux + 270)
 #define __NR_move_pages                        (__NR_Linux + 271)
+#define __NR_set_robust_list           (__NR_Linux + 272)
+#define __NR_get_robust_list           (__NR_Linux + 273)
 
 /*
  * Offset of the last N32 flavoured syscall
  */
-#define __NR_Linux_syscalls            271
+#define __NR_Linux_syscalls            273
 
 #endif /* _MIPS_SIM == _MIPS_SIM_NABI32 */
 
 #define __NR_N32_Linux                 6000
-#define __NR_N32_Linux_syscalls                271
+#define __NR_N32_Linux_syscalls                273
 
 #ifdef __KERNEL__