s390: switch to dynamic percpu allocator
authorTejun Heo <tj@kernel.org>
Wed, 24 Jun 2009 06:13:53 +0000 (15:13 +0900)
committerTejun Heo <tj@kernel.org>
Wed, 24 Jun 2009 06:13:53 +0000 (15:13 +0900)
64bit s390 shares the same problem with alpha regarding percpu symbol
addressing from modules.  It needs assembly magic to force GOTENT
reference when building module as the percpu address will be outside
the usual 4G range from the module text.  This can be solved by using
weak percpu variable definitions.

This patch makes s390 use weak definitions and switch to dynamic
percpu allocator.  Please note that weak attribute is not added if
!SMP as percpu variables behave exactly the same as normal variables
on UP.

Compile tested.  Generation of GOTENT reference verified.

This patch is based on Ivan Kokshaysky's alpha percpu patch.

[ Impact: use dynamic percpu allocator ]

Signed-off-by: Tejun Heo <tj@kernel.org>
Cc: Martin Schwidefsky <schwidefsky@de.ibm.com>
Cc: Heiko Carstens <heiko.carstens@de.ibm.com>
arch/s390/Kconfig
arch/s390/include/asm/percpu.h

index f4a3cc6..a14dba0 100644 (file)
@@ -75,9 +75,6 @@ config VIRT_CPU_ACCOUNTING
 config ARCH_SUPPORTS_DEBUG_PAGEALLOC
        def_bool y
 
-config HAVE_LEGACY_PER_CPU_AREA
-       def_bool y
-
 mainmenu "Linux Kernel Configuration"
 
 config S390
index 408d60b..f7ad871 100644 (file)
@@ -1,37 +1,21 @@
 #ifndef __ARCH_S390_PERCPU__
 #define __ARCH_S390_PERCPU__
 
-#include <linux/compiler.h>
-#include <asm/lowcore.h>
-
 /*
  * s390 uses its own implementation for per cpu data, the offset of
  * the cpu local data area is cached in the cpu's lowcore memory.
- * For 64 bit module code s390 forces the use of a GOT slot for the
- * address of the per cpu variable. This is needed because the module
- * may be more than 4G above the per cpu area.
  */
-#if defined(__s390x__) && defined(MODULE)
-
-#define SHIFT_PERCPU_PTR(ptr,offset) (({                       \
-       extern int simple_identifier_##var(void);       \
-       unsigned long *__ptr;                           \
-       asm ( "larl %0, %1@GOTENT"              \
-           : "=a" (__ptr) : "X" (ptr) );               \
-       (typeof(ptr))((*__ptr) + (offset));     }))
-
-#else
-
-#define SHIFT_PERCPU_PTR(ptr, offset) (({                              \
-       extern int simple_identifier_##var(void);               \
-       unsigned long __ptr;                                    \
-       asm ( "" : "=a" (__ptr) : "0" (ptr) );                  \
-       (typeof(ptr)) (__ptr + (offset)); }))
+#define __my_cpu_offset S390_lowcore.percpu_offset
 
+/*
+ * For 64 bit module code, the module may be more than 4G above the
+ * per cpu area, use weak definitions to force the compiler to
+ * generate external references.
+ */
+#if defined(CONFIG_SMP) && defined(__s390x__) && defined(MODULE)
+#define ARCH_NEEDS_WEAK_PER_CPU
 #endif
 
-#define __my_cpu_offset S390_lowcore.percpu_offset
-
 #include <asm-generic/percpu.h>
 
 #endif /* __ARCH_S390_PERCPU__ */