netpoll per device txq
[safe/jmp/linux-2.6] / include / linux / netpoll.h
1 /*
2  * Common code for low-level network console, dump, and debugger code
3  *
4  * Derived from netconsole, kgdb-over-ethernet, and netdump patches
5  */
6
7 #ifndef _LINUX_NETPOLL_H
8 #define _LINUX_NETPOLL_H
9
10 #include <linux/netdevice.h>
11 #include <linux/interrupt.h>
12 #include <linux/rcupdate.h>
13 #include <linux/list.h>
14
15 struct netpoll;
16
17 struct netpoll {
18         struct net_device *dev;
19         char dev_name[16], *name;
20         void (*rx_hook)(struct netpoll *, int, char *, int);
21         void (*drop)(struct sk_buff *skb);
22         u32 local_ip, remote_ip;
23         u16 local_port, remote_port;
24         unsigned char local_mac[6], remote_mac[6];
25 };
26
27 struct netpoll_info {
28         atomic_t refcnt;
29         spinlock_t poll_lock;
30         int poll_owner;
31         int tries;
32         int rx_flags;
33         spinlock_t rx_lock;
34         struct netpoll *rx_np; /* netpoll that registered an rx_hook */
35         struct sk_buff_head arp_tx; /* list of arp requests to reply to */
36         struct sk_buff_head txq;
37         struct work_struct tx_work;
38 };
39
40 void netpoll_poll(struct netpoll *np);
41 void netpoll_send_udp(struct netpoll *np, const char *msg, int len);
42 int netpoll_parse_options(struct netpoll *np, char *opt);
43 int netpoll_setup(struct netpoll *np);
44 int netpoll_trap(void);
45 void netpoll_set_trap(int trap);
46 void netpoll_cleanup(struct netpoll *np);
47 int __netpoll_rx(struct sk_buff *skb);
48 void netpoll_queue(struct sk_buff *skb);
49
50 #ifdef CONFIG_NETPOLL
51 static inline int netpoll_rx(struct sk_buff *skb)
52 {
53         struct netpoll_info *npinfo = skb->dev->npinfo;
54         unsigned long flags;
55         int ret = 0;
56
57         if (!npinfo || (!npinfo->rx_np && !npinfo->rx_flags))
58                 return 0;
59
60         spin_lock_irqsave(&npinfo->rx_lock, flags);
61         /* check rx_flags again with the lock held */
62         if (npinfo->rx_flags && __netpoll_rx(skb))
63                 ret = 1;
64         spin_unlock_irqrestore(&npinfo->rx_lock, flags);
65
66         return ret;
67 }
68
69 static inline void *netpoll_poll_lock(struct net_device *dev)
70 {
71         rcu_read_lock(); /* deal with race on ->npinfo */
72         if (dev->npinfo) {
73                 spin_lock(&dev->npinfo->poll_lock);
74                 dev->npinfo->poll_owner = smp_processor_id();
75                 return dev->npinfo;
76         }
77         return NULL;
78 }
79
80 static inline void netpoll_poll_unlock(void *have)
81 {
82         struct netpoll_info *npi = have;
83
84         if (npi) {
85                 npi->poll_owner = -1;
86                 spin_unlock(&npi->poll_lock);
87         }
88         rcu_read_unlock();
89 }
90
91 #else
92 #define netpoll_rx(a) 0
93 #define netpoll_poll_lock(a) NULL
94 #define netpoll_poll_unlock(a)
95 #endif
96
97 #endif