netfilter: xtables: consistent struct compat_xt_counters definition
[safe/jmp/linux-2.6] / include / linux / netfilter / x_tables.h
index adbc50a..8b6c0e7 100644 (file)
@@ -6,8 +6,7 @@
 #define XT_FUNCTION_MAXNAMELEN 30
 #define XT_TABLE_MAXNAMELEN 32
 
-struct xt_entry_match
-{
+struct xt_entry_match {
        union {
                struct {
                        __u16 match_size;
@@ -31,8 +30,7 @@ struct xt_entry_match
        unsigned char data[0];
 };
 
-struct xt_entry_target
-{
+struct xt_entry_target {
        union {
                struct {
                        __u16 target_size;
@@ -64,16 +62,14 @@ struct xt_entry_target
        },                                                                     \
 }
 
-struct xt_standard_target
-{
+struct xt_standard_target {
        struct xt_entry_target target;
        int verdict;
 };
 
 /* The argument to IPT_SO_GET_REVISION_*.  Returns highest revision
  * kernel supports, if >= revision. */
-struct xt_get_revision
-{
+struct xt_get_revision {
        char name[XT_FUNCTION_MAXNAMELEN-1];
 
        __u8 revision;
@@ -90,8 +86,7 @@ struct xt_get_revision
  * ip6t_entry and arpt_entry.  This sucks, and it is a hack.  It will be my
  * personal pleasure to remove it -HW
  */
-struct _xt_align
-{
+struct _xt_align {
        __u8 u8;
        __u16 u16;
        __u32 u32;
@@ -109,14 +104,12 @@ struct _xt_align
 #define SET_COUNTER(c,b,p) do { (c).bcnt = (b); (c).pcnt = (p); } while(0)
 #define ADD_COUNTER(c,b,p) do { (c).bcnt += (b); (c).pcnt += (p); } while(0)
 
-struct xt_counters
-{
+struct xt_counters {
        __u64 pcnt, bcnt;                       /* Packet and byte counters */
 };
 
 /* The argument to IPT_SO_ADD_COUNTERS. */
-struct xt_counters_info
-{
+struct xt_counters_info {
        /* Which table. */
        char name[XT_TABLE_MAXNAMELEN];
 
@@ -184,9 +177,10 @@ struct xt_counters_info
  * @matchinfo: per-match data
  * @fragoff:   packet is a fragment, this is the data offset
  * @thoff:     position of transport header relative to skb->data
- * @hotdrop:   drop packet if we had inspection problems
+ * @hook:      hook number given packet came from
  * @family:    Actual NFPROTO_* through which the function is invoked
  *             (helpful when match->family == NFPROTO_UNSPEC)
+ * @hotdrop:   drop packet if we had inspection problems
  */
 struct xt_match_param {
        const struct net_device *in, *out;
@@ -194,8 +188,9 @@ struct xt_match_param {
        const void *matchinfo;
        int fragoff;
        unsigned int thoff;
-       bool *hotdrop;
+       unsigned int hooknum;
        u_int8_t family;
+       bool *hotdrop;
 };
 
 /**
@@ -210,6 +205,7 @@ struct xt_match_param {
  * @hook_mask: via which hooks the new rule is reachable
  */
 struct xt_mtchk_param {
+       struct net *net;
        const char *table;
        const void *entryinfo;
        const struct xt_match *match;
@@ -220,6 +216,7 @@ struct xt_mtchk_param {
 
 /* Match destructor parameters */
 struct xt_mtdtor_param {
+       struct net *net;
        const struct xt_match *match;
        void *matchinfo;
        u_int8_t family;
@@ -236,9 +233,9 @@ struct xt_mtdtor_param {
  */
 struct xt_target_param {
        const struct net_device *in, *out;
-       unsigned int hooknum;
        const struct xt_target *target;
        const void *targinfo;
+       unsigned int hooknum;
        u_int8_t family;
 };
 
@@ -252,6 +249,7 @@ struct xt_target_param {
  * Other fields see above.
  */
 struct xt_tgchk_param {
+       struct net *net;
        const char *table;
        const void *entryinfo;
        const struct xt_target *target;
@@ -262,13 +260,13 @@ struct xt_tgchk_param {
 
 /* Target destructor parameters */
 struct xt_tgdtor_param {
+       struct net *net;
        const struct xt_target *target;
        void *targinfo;
        u_int8_t family;
 };
 
-struct xt_match
-{
+struct xt_match {
        struct list_head list;
 
        const char name[XT_FUNCTION_MAXNAMELEN-1];
@@ -287,11 +285,11 @@ struct xt_match
 
        /* Called when entry of this type deleted. */
        void (*destroy)(const struct xt_mtdtor_param *);
-
+#ifdef CONFIG_COMPAT
        /* Called when userspace align differs from kernel space one */
        void (*compat_from_user)(void *dst, void *src);
        int (*compat_to_user)(void __user *dst, void *src);
-
+#endif
        /* Set this to THIS_MODULE if you are a module, otherwise NULL */
        struct module *me;
 
@@ -300,7 +298,9 @@ struct xt_match
 
        const char *table;
        unsigned int matchsize;
+#ifdef CONFIG_COMPAT
        unsigned int compatsize;
+#endif
        unsigned int hooks;
        unsigned short proto;
 
@@ -308,8 +308,7 @@ struct xt_match
 };
 
 /* Registration hooks for targets. */
-struct xt_target
-{
+struct xt_target {
        struct list_head list;
 
        const char name[XT_FUNCTION_MAXNAMELEN-1];
@@ -328,17 +327,19 @@ struct xt_target
 
        /* Called when entry of this type deleted. */
        void (*destroy)(const struct xt_tgdtor_param *);
-
+#ifdef CONFIG_COMPAT
        /* Called when userspace align differs from kernel space one */
        void (*compat_from_user)(void *dst, void *src);
        int (*compat_to_user)(void __user *dst, void *src);
-
+#endif
        /* Set this to THIS_MODULE if you are a module, otherwise NULL */
        struct module *me;
 
        const char *table;
        unsigned int targetsize;
+#ifdef CONFIG_COMPAT
        unsigned int compatsize;
+#endif
        unsigned int hooks;
        unsigned short proto;
 
@@ -347,16 +348,12 @@ struct xt_target
 };
 
 /* Furniture shopping... */
-struct xt_table
-{
+struct xt_table {
        struct list_head list;
 
        /* What hooks you will enter on */
        unsigned int valid_hooks;
 
-       /* Lock for the curtain */
-       struct mutex lock;
-
        /* Man behind the curtain... */
        struct xt_table_info *private;
 
@@ -372,8 +369,7 @@ struct xt_table
 #include <linux/netfilter_ipv4.h>
 
 /* The table itself */
-struct xt_table_info
-{
+struct xt_table_info {
        /* Size per table */
        unsigned int size;
        /* Number of entries: FIXME. --RR */
@@ -408,7 +404,7 @@ extern int xt_check_target(struct xt_tgchk_param *,
                           unsigned int size, u_int8_t proto, bool inv_proto);
 
 extern struct xt_table *xt_register_table(struct net *net,
-                                         struct xt_table *table,
+                                         const struct xt_table *table,
                                          struct xt_table_info *bootstrap,
                                          struct xt_table_info *newinfo);
 extern void *xt_unregister_table(struct xt_table *table);
@@ -434,14 +430,102 @@ extern void xt_proto_fini(struct net *net, u_int8_t af);
 
 extern struct xt_table_info *xt_alloc_table_info(unsigned int size);
 extern void xt_free_table_info(struct xt_table_info *info);
-extern void xt_table_entry_swap_rcu(struct xt_table_info *old,
-                                   struct xt_table_info *new);
+
+/*
+ * Per-CPU spinlock associated with per-cpu table entries, and
+ * with a counter for the "reading" side that allows a recursive
+ * reader to avoid taking the lock and deadlocking.
+ *
+ * "reading" is used by ip/arp/ip6 tables rule processing which runs per-cpu.
+ * It needs to ensure that the rules are not being changed while the packet
+ * is being processed. In some cases, the read lock will be acquired
+ * twice on the same CPU; this is okay because of the count.
+ *
+ * "writing" is used when reading counters.
+ *  During replace any readers that are using the old tables have to complete
+ *  before freeing the old table. This is handled by the write locking
+ *  necessary for reading the counters.
+ */
+struct xt_info_lock {
+       spinlock_t lock;
+       unsigned char readers;
+};
+DECLARE_PER_CPU(struct xt_info_lock, xt_info_locks);
+
+/*
+ * Note: we need to ensure that preemption is disabled before acquiring
+ * the per-cpu-variable, so we do it as a two step process rather than
+ * using "spin_lock_bh()".
+ *
+ * We _also_ need to disable bottom half processing before updating our
+ * nesting count, to make sure that the only kind of re-entrancy is this
+ * code being called by itself: since the count+lock is not an atomic
+ * operation, we can allow no races.
+ *
+ * _Only_ that special combination of being per-cpu and never getting
+ * re-entered asynchronously means that the count is safe.
+ */
+static inline void xt_info_rdlock_bh(void)
+{
+       struct xt_info_lock *lock;
+
+       local_bh_disable();
+       lock = &__get_cpu_var(xt_info_locks);
+       if (likely(!lock->readers++))
+               spin_lock(&lock->lock);
+}
+
+static inline void xt_info_rdunlock_bh(void)
+{
+       struct xt_info_lock *lock = &__get_cpu_var(xt_info_locks);
+
+       if (likely(!--lock->readers))
+               spin_unlock(&lock->lock);
+       local_bh_enable();
+}
+
+/*
+ * The "writer" side needs to get exclusive access to the lock,
+ * regardless of readers.  This must be called with bottom half
+ * processing (and thus also preemption) disabled.
+ */
+static inline void xt_info_wrlock(unsigned int cpu)
+{
+       spin_lock(&per_cpu(xt_info_locks, cpu).lock);
+}
+
+static inline void xt_info_wrunlock(unsigned int cpu)
+{
+       spin_unlock(&per_cpu(xt_info_locks, cpu).lock);
+}
+
+/*
+ * This helper is performance critical and must be inlined
+ */
+static inline unsigned long ifname_compare_aligned(const char *_a,
+                                                  const char *_b,
+                                                  const char *_mask)
+{
+       const unsigned long *a = (const unsigned long *)_a;
+       const unsigned long *b = (const unsigned long *)_b;
+       const unsigned long *mask = (const unsigned long *)_mask;
+       unsigned long ret;
+
+       ret = (a[0] ^ b[0]) & mask[0];
+       if (IFNAMSIZ > sizeof(unsigned long))
+               ret |= (a[1] ^ b[1]) & mask[1];
+       if (IFNAMSIZ > 2 * sizeof(unsigned long))
+               ret |= (a[2] ^ b[2]) & mask[2];
+       if (IFNAMSIZ > 3 * sizeof(unsigned long))
+               ret |= (a[3] ^ b[3]) & mask[3];
+       BUILD_BUG_ON(IFNAMSIZ > 4 * sizeof(unsigned long));
+       return ret;
+}
 
 #ifdef CONFIG_COMPAT
 #include <net/compat.h>
 
-struct compat_xt_entry_match
-{
+struct compat_xt_entry_match {
        union {
                struct {
                        u_int16_t match_size;
@@ -457,8 +541,7 @@ struct compat_xt_entry_match
        unsigned char data[0];
 };
 
-struct compat_xt_entry_target
-{
+struct compat_xt_entry_target {
        union {
                struct {
                        u_int16_t target_size;
@@ -478,17 +561,11 @@ struct compat_xt_entry_target
  * need to change whole approach in order to calculate align as function of
  * current task alignment */
 
-struct compat_xt_counters
-{
-#if defined(CONFIG_X86_64) || defined(CONFIG_IA64)
-       u_int32_t cnt[4];
-#else
-       u_int64_t cnt[2];
-#endif
+struct compat_xt_counters {
+       compat_u64 pcnt, bcnt;                  /* Packet and byte counters */
 };
 
-struct compat_xt_counters_info
-{
+struct compat_xt_counters_info {
        char name[XT_TABLE_MAXNAMELEN];
        compat_uint_t num_counters;
        struct compat_xt_counters counters[0];