[SCSI] fcoe: Call ndo_fcoe_enable/disable to turn FCoE feature on/off in LLD
[safe/jmp/linux-2.6] / drivers / scsi / fcoe / fcoe.c
1 /*
2  * Copyright(c) 2007 - 2009 Intel Corporation. All rights reserved.
3  *
4  * This program is free software; you can redistribute it and/or modify it
5  * under the terms and conditions of the GNU General Public License,
6  * version 2, as published by the Free Software Foundation.
7  *
8  * This program is distributed in the hope it will be useful, but WITHOUT
9  * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
10  * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
11  * more details.
12  *
13  * You should have received a copy of the GNU General Public License along with
14  * this program; if not, write to the Free Software Foundation, Inc.,
15  * 51 Franklin St - Fifth Floor, Boston, MA 02110-1301 USA.
16  *
17  * Maintained at www.Open-FCoE.org
18  */
19
20 #include <linux/module.h>
21 #include <linux/version.h>
22 #include <linux/spinlock.h>
23 #include <linux/netdevice.h>
24 #include <linux/etherdevice.h>
25 #include <linux/ethtool.h>
26 #include <linux/if_ether.h>
27 #include <linux/if_vlan.h>
28 #include <linux/crc32.h>
29 #include <linux/cpu.h>
30 #include <linux/fs.h>
31 #include <linux/sysfs.h>
32 #include <linux/ctype.h>
33 #include <scsi/scsi_tcq.h>
34 #include <scsi/scsicam.h>
35 #include <scsi/scsi_transport.h>
36 #include <scsi/scsi_transport_fc.h>
37 #include <net/rtnetlink.h>
38
39 #include <scsi/fc/fc_encaps.h>
40 #include <scsi/fc/fc_fip.h>
41
42 #include <scsi/libfc.h>
43 #include <scsi/fc_frame.h>
44 #include <scsi/libfcoe.h>
45
46 #include "fcoe.h"
47
48 MODULE_AUTHOR("Open-FCoE.org");
49 MODULE_DESCRIPTION("FCoE");
50 MODULE_LICENSE("GPL v2");
51
52 /* Performance tuning parameters for fcoe */
53 static unsigned int fcoe_ddp_min;
54 module_param_named(ddp_min, fcoe_ddp_min, uint, S_IRUGO | S_IWUSR);
55 MODULE_PARM_DESC(ddp_min, "Minimum I/O size in bytes for "      \
56                  "Direct Data Placement (DDP).");
57
58 DEFINE_MUTEX(fcoe_config_mutex);
59
60 /* fcoe_percpu_clean completion.  Waiter protected by fcoe_create_mutex */
61 static DECLARE_COMPLETION(fcoe_flush_completion);
62
63 /* fcoe host list */
64 /* must only by accessed under the RTNL mutex */
65 LIST_HEAD(fcoe_hostlist);
66 DEFINE_PER_CPU(struct fcoe_percpu_s, fcoe_percpu);
67
68 /* Function Prototypes */
69 static int fcoe_reset(struct Scsi_Host *shost);
70 static int fcoe_xmit(struct fc_lport *, struct fc_frame *);
71 static int fcoe_rcv(struct sk_buff *, struct net_device *,
72                     struct packet_type *, struct net_device *);
73 static int fcoe_percpu_receive_thread(void *arg);
74 static void fcoe_clean_pending_queue(struct fc_lport *lp);
75 static void fcoe_percpu_clean(struct fc_lport *lp);
76 static int fcoe_link_ok(struct fc_lport *lp);
77
78 static struct fc_lport *fcoe_hostlist_lookup(const struct net_device *);
79 static int fcoe_hostlist_add(const struct fc_lport *);
80
81 static void fcoe_check_wait_queue(struct fc_lport *, struct sk_buff *);
82 static int fcoe_device_notification(struct notifier_block *, ulong, void *);
83 static void fcoe_dev_setup(void);
84 static void fcoe_dev_cleanup(void);
85 static struct fcoe_interface *
86         fcoe_hostlist_lookup_port(const struct net_device *dev);
87
88 /* notification function from net device */
89 static struct notifier_block fcoe_notifier = {
90         .notifier_call = fcoe_device_notification,
91 };
92
93 static struct scsi_transport_template *scsi_transport_fcoe_sw;
94
95 struct fc_function_template fcoe_transport_function = {
96         .show_host_node_name = 1,
97         .show_host_port_name = 1,
98         .show_host_supported_classes = 1,
99         .show_host_supported_fc4s = 1,
100         .show_host_active_fc4s = 1,
101         .show_host_maxframe_size = 1,
102
103         .show_host_port_id = 1,
104         .show_host_supported_speeds = 1,
105         .get_host_speed = fc_get_host_speed,
106         .show_host_speed = 1,
107         .show_host_port_type = 1,
108         .get_host_port_state = fc_get_host_port_state,
109         .show_host_port_state = 1,
110         .show_host_symbolic_name = 1,
111
112         .dd_fcrport_size = sizeof(struct fc_rport_libfc_priv),
113         .show_rport_maxframe_size = 1,
114         .show_rport_supported_classes = 1,
115
116         .show_host_fabric_name = 1,
117         .show_starget_node_name = 1,
118         .show_starget_port_name = 1,
119         .show_starget_port_id = 1,
120         .set_rport_dev_loss_tmo = fc_set_rport_loss_tmo,
121         .show_rport_dev_loss_tmo = 1,
122         .get_fc_host_stats = fc_get_host_stats,
123         .issue_fc_host_lip = fcoe_reset,
124
125         .terminate_rport_io = fc_rport_terminate_io,
126 };
127
128 static struct scsi_host_template fcoe_shost_template = {
129         .module = THIS_MODULE,
130         .name = "FCoE Driver",
131         .proc_name = FCOE_NAME,
132         .queuecommand = fc_queuecommand,
133         .eh_abort_handler = fc_eh_abort,
134         .eh_device_reset_handler = fc_eh_device_reset,
135         .eh_host_reset_handler = fc_eh_host_reset,
136         .slave_alloc = fc_slave_alloc,
137         .change_queue_depth = fc_change_queue_depth,
138         .change_queue_type = fc_change_queue_type,
139         .this_id = -1,
140         .cmd_per_lun = 32,
141         .can_queue = FCOE_MAX_OUTSTANDING_COMMANDS,
142         .use_clustering = ENABLE_CLUSTERING,
143         .sg_tablesize = SG_ALL,
144         .max_sectors = 0xffff,
145 };
146
147 static int fcoe_fip_recv(struct sk_buff *skb, struct net_device *dev,
148                          struct packet_type *ptype,
149                          struct net_device *orig_dev);
150 /**
151  * fcoe_interface_setup()
152  * @fcoe: new fcoe_interface
153  * @netdev : ptr to the associated netdevice struct
154  *
155  * Returns : 0 for success
156  * Locking: must be called with the RTNL mutex held
157  */
158 static int fcoe_interface_setup(struct fcoe_interface *fcoe,
159                                 struct net_device *netdev)
160 {
161         struct fcoe_ctlr *fip = &fcoe->ctlr;
162         struct netdev_hw_addr *ha;
163         u8 flogi_maddr[ETH_ALEN];
164         const struct net_device_ops *ops;
165
166         fcoe->netdev = netdev;
167
168         /* Let LLD initialize for FCoE */
169         ops = netdev->netdev_ops;
170         if (ops->ndo_fcoe_enable) {
171                 if (ops->ndo_fcoe_enable(netdev))
172                         FCOE_NETDEV_DBG(netdev, "Failed to enable FCoE"
173                                         " specific feature for LLD.\n");
174         }
175
176         /* Do not support for bonding device */
177         if ((netdev->priv_flags & IFF_MASTER_ALB) ||
178             (netdev->priv_flags & IFF_SLAVE_INACTIVE) ||
179             (netdev->priv_flags & IFF_MASTER_8023AD)) {
180                 return -EOPNOTSUPP;
181         }
182
183         /* look for SAN MAC address, if multiple SAN MACs exist, only
184          * use the first one for SPMA */
185         rcu_read_lock();
186         for_each_dev_addr(netdev, ha) {
187                 if ((ha->type == NETDEV_HW_ADDR_T_SAN) &&
188                     (is_valid_ether_addr(fip->ctl_src_addr))) {
189                         memcpy(fip->ctl_src_addr, ha->addr, ETH_ALEN);
190                         fip->spma = 1;
191                         break;
192                 }
193         }
194         rcu_read_unlock();
195
196         /* setup Source Mac Address */
197         if (!fip->spma)
198                 memcpy(fip->ctl_src_addr, netdev->dev_addr, netdev->addr_len);
199
200         /*
201          * Add FCoE MAC address as second unicast MAC address
202          * or enter promiscuous mode if not capable of listening
203          * for multiple unicast MACs.
204          */
205         memcpy(flogi_maddr, (u8[6]) FC_FCOE_FLOGI_MAC, ETH_ALEN);
206         dev_unicast_add(netdev, flogi_maddr);
207         if (fip->spma)
208                 dev_unicast_add(netdev, fip->ctl_src_addr);
209         dev_mc_add(netdev, FIP_ALL_ENODE_MACS, ETH_ALEN, 0);
210
211         /*
212          * setup the receive function from ethernet driver
213          * on the ethertype for the given device
214          */
215         fcoe->fcoe_packet_type.func = fcoe_rcv;
216         fcoe->fcoe_packet_type.type = __constant_htons(ETH_P_FCOE);
217         fcoe->fcoe_packet_type.dev = netdev;
218         dev_add_pack(&fcoe->fcoe_packet_type);
219
220         fcoe->fip_packet_type.func = fcoe_fip_recv;
221         fcoe->fip_packet_type.type = htons(ETH_P_FIP);
222         fcoe->fip_packet_type.dev = netdev;
223         dev_add_pack(&fcoe->fip_packet_type);
224
225         return 0;
226 }
227
228 static void fcoe_fip_send(struct fcoe_ctlr *fip, struct sk_buff *skb);
229 static void fcoe_update_src_mac(struct fcoe_ctlr *fip, u8 *old, u8 *new);
230 static void fcoe_destroy_work(struct work_struct *work);
231
232 /**
233  * fcoe_interface_create()
234  * @netdev: network interface
235  *
236  * Returns: pointer to a struct fcoe_interface or NULL on error
237  */
238 static struct fcoe_interface *fcoe_interface_create(struct net_device *netdev)
239 {
240         struct fcoe_interface *fcoe;
241
242         fcoe = kzalloc(sizeof(*fcoe), GFP_KERNEL);
243         if (!fcoe) {
244                 FCOE_NETDEV_DBG(netdev, "Could not allocate fcoe structure\n");
245                 return NULL;
246         }
247
248         dev_hold(netdev);
249         kref_init(&fcoe->kref);
250
251         /*
252          * Initialize FIP.
253          */
254         fcoe_ctlr_init(&fcoe->ctlr);
255         fcoe->ctlr.send = fcoe_fip_send;
256         fcoe->ctlr.update_mac = fcoe_update_src_mac;
257
258         fcoe_interface_setup(fcoe, netdev);
259
260         return fcoe;
261 }
262
263 /**
264  * fcoe_interface_cleanup() - clean up netdev configurations
265  * @fcoe:
266  *
267  * Caller must be holding the RTNL mutex
268  */
269 void fcoe_interface_cleanup(struct fcoe_interface *fcoe)
270 {
271         struct net_device *netdev = fcoe->netdev;
272         struct fcoe_ctlr *fip = &fcoe->ctlr;
273         u8 flogi_maddr[ETH_ALEN];
274         const struct net_device_ops *ops;
275
276         /*
277          * Don't listen for Ethernet packets anymore.
278          * synchronize_net() ensures that the packet handlers are not running
279          * on another CPU. dev_remove_pack() would do that, this calls the
280          * unsyncronized version __dev_remove_pack() to avoid multiple delays.
281          */
282         __dev_remove_pack(&fcoe->fcoe_packet_type);
283         __dev_remove_pack(&fcoe->fip_packet_type);
284         synchronize_net();
285
286         /* Delete secondary MAC addresses */
287         memcpy(flogi_maddr, (u8[6]) FC_FCOE_FLOGI_MAC, ETH_ALEN);
288         dev_unicast_delete(netdev, flogi_maddr);
289         if (!is_zero_ether_addr(fip->data_src_addr))
290                 dev_unicast_delete(netdev, fip->data_src_addr);
291         if (fip->spma)
292                 dev_unicast_delete(netdev, fip->ctl_src_addr);
293         dev_mc_delete(netdev, FIP_ALL_ENODE_MACS, ETH_ALEN, 0);
294
295         /* Tell the LLD we are done w/ FCoE */
296         ops = netdev->netdev_ops;
297         if (ops->ndo_fcoe_disable) {
298                 if (ops->ndo_fcoe_disable(netdev))
299                         FCOE_NETDEV_DBG(netdev, "Failed to disable FCoE"
300                                         " specific feature for LLD.\n");
301         }
302 }
303
304 /**
305  * fcoe_interface_release() - fcoe_port kref release function
306  * @kref: embedded reference count in an fcoe_interface struct
307  */
308 static void fcoe_interface_release(struct kref *kref)
309 {
310         struct fcoe_interface *fcoe;
311         struct net_device *netdev;
312
313         fcoe = container_of(kref, struct fcoe_interface, kref);
314         netdev = fcoe->netdev;
315         /* tear-down the FCoE controller */
316         fcoe_ctlr_destroy(&fcoe->ctlr);
317         kfree(fcoe);
318         dev_put(netdev);
319 }
320
321 /**
322  * fcoe_interface_get()
323  * @fcoe:
324  */
325 static inline void fcoe_interface_get(struct fcoe_interface *fcoe)
326 {
327         kref_get(&fcoe->kref);
328 }
329
330 /**
331  * fcoe_interface_put()
332  * @fcoe:
333  */
334 static inline void fcoe_interface_put(struct fcoe_interface *fcoe)
335 {
336         kref_put(&fcoe->kref, fcoe_interface_release);
337 }
338
339 /**
340  * fcoe_fip_recv - handle a received FIP frame.
341  * @skb: the receive skb
342  * @dev: associated &net_device
343  * @ptype: the &packet_type structure which was used to register this handler.
344  * @orig_dev: original receive &net_device, in case @dev is a bond.
345  *
346  * Returns: 0 for success
347  */
348 static int fcoe_fip_recv(struct sk_buff *skb, struct net_device *dev,
349                          struct packet_type *ptype,
350                          struct net_device *orig_dev)
351 {
352         struct fcoe_interface *fcoe;
353
354         fcoe = container_of(ptype, struct fcoe_interface, fip_packet_type);
355         fcoe_ctlr_recv(&fcoe->ctlr, skb);
356         return 0;
357 }
358
359 /**
360  * fcoe_fip_send() - send an Ethernet-encapsulated FIP frame.
361  * @fip: FCoE controller.
362  * @skb: FIP Packet.
363  */
364 static void fcoe_fip_send(struct fcoe_ctlr *fip, struct sk_buff *skb)
365 {
366         skb->dev = fcoe_from_ctlr(fip)->netdev;
367         dev_queue_xmit(skb);
368 }
369
370 /**
371  * fcoe_update_src_mac() - Update Ethernet MAC filters.
372  * @fip: FCoE controller.
373  * @old: Unicast MAC address to delete if the MAC is non-zero.
374  * @new: Unicast MAC address to add.
375  *
376  * Remove any previously-set unicast MAC filter.
377  * Add secondary FCoE MAC address filter for our OUI.
378  */
379 static void fcoe_update_src_mac(struct fcoe_ctlr *fip, u8 *old, u8 *new)
380 {
381         struct fcoe_interface *fcoe;
382
383         fcoe = fcoe_from_ctlr(fip);
384         rtnl_lock();
385         if (!is_zero_ether_addr(old))
386                 dev_unicast_delete(fcoe->netdev, old);
387         dev_unicast_add(fcoe->netdev, new);
388         rtnl_unlock();
389 }
390
391 /**
392  * fcoe_lport_config() - sets up the fc_lport
393  * @lp: ptr to the fc_lport
394  *
395  * Returns: 0 for success
396  */
397 static int fcoe_lport_config(struct fc_lport *lp)
398 {
399         lp->link_up = 0;
400         lp->qfull = 0;
401         lp->max_retry_count = 3;
402         lp->max_rport_retry_count = 3;
403         lp->e_d_tov = 2 * 1000; /* FC-FS default */
404         lp->r_a_tov = 2 * 2 * 1000;
405         lp->service_params = (FCP_SPPF_INIT_FCN | FCP_SPPF_RD_XRDY_DIS |
406                               FCP_SPPF_RETRY | FCP_SPPF_CONF_COMPL);
407
408         fc_lport_init_stats(lp);
409
410         /* lport fc_lport related configuration */
411         fc_lport_config(lp);
412
413         /* offload related configuration */
414         lp->crc_offload = 0;
415         lp->seq_offload = 0;
416         lp->lro_enabled = 0;
417         lp->lro_xid = 0;
418         lp->lso_max = 0;
419
420         return 0;
421 }
422
423 /**
424  * fcoe_queue_timer() - fcoe queue timer
425  * @lp: the fc_lport pointer
426  *
427  * Calls fcoe_check_wait_queue on timeout
428  *
429  */
430 static void fcoe_queue_timer(ulong lp)
431 {
432         fcoe_check_wait_queue((struct fc_lport *)lp, NULL);
433 }
434
435 /**
436  * fcoe_netdev_config() - Set up netdev for SW FCoE
437  * @lp : ptr to the fc_lport
438  * @netdev : ptr to the associated netdevice struct
439  *
440  * Must be called after fcoe_lport_config() as it will use lport mutex
441  *
442  * Returns : 0 for success
443  */
444 static int fcoe_netdev_config(struct fc_lport *lp, struct net_device *netdev)
445 {
446         u32 mfs;
447         u64 wwnn, wwpn;
448         struct fcoe_interface *fcoe;
449         struct fcoe_port *port;
450
451         /* Setup lport private data to point to fcoe softc */
452         port = lport_priv(lp);
453         fcoe = port->fcoe;
454
455         /*
456          * Determine max frame size based on underlying device and optional
457          * user-configured limit.  If the MFS is too low, fcoe_link_ok()
458          * will return 0, so do this first.
459          */
460         mfs = netdev->mtu;
461         if (netdev->features & NETIF_F_FCOE_MTU) {
462                 mfs = FCOE_MTU;
463                 FCOE_NETDEV_DBG(netdev, "Supports FCOE_MTU of %d bytes\n", mfs);
464         }
465         mfs -= (sizeof(struct fcoe_hdr) + sizeof(struct fcoe_crc_eof));
466         if (fc_set_mfs(lp, mfs))
467                 return -EINVAL;
468
469         /* offload features support */
470         if (netdev->features & NETIF_F_SG)
471                 lp->sg_supp = 1;
472
473         if (netdev->features & NETIF_F_FCOE_CRC) {
474                 lp->crc_offload = 1;
475                 FCOE_NETDEV_DBG(netdev, "Supports FCCRC offload\n");
476         }
477         if (netdev->features & NETIF_F_FSO) {
478                 lp->seq_offload = 1;
479                 lp->lso_max = netdev->gso_max_size;
480                 FCOE_NETDEV_DBG(netdev, "Supports LSO for max len 0x%x\n",
481                                 lp->lso_max);
482         }
483         if (netdev->fcoe_ddp_xid) {
484                 lp->lro_enabled = 1;
485                 lp->lro_xid = netdev->fcoe_ddp_xid;
486                 FCOE_NETDEV_DBG(netdev, "Supports LRO for max xid 0x%x\n",
487                                 lp->lro_xid);
488         }
489         skb_queue_head_init(&port->fcoe_pending_queue);
490         port->fcoe_pending_queue_active = 0;
491         setup_timer(&port->timer, fcoe_queue_timer, (unsigned long)lp);
492
493         wwnn = fcoe_wwn_from_mac(netdev->dev_addr, 1, 0);
494         fc_set_wwnn(lp, wwnn);
495         /* XXX - 3rd arg needs to be vlan id */
496         wwpn = fcoe_wwn_from_mac(netdev->dev_addr, 2, 0);
497         fc_set_wwpn(lp, wwpn);
498
499         return 0;
500 }
501
502 /**
503  * fcoe_shost_config() - Sets up fc_lport->host
504  * @lp : ptr to the fc_lport
505  * @shost : ptr to the associated scsi host
506  * @dev : device associated to scsi host
507  *
508  * Must be called after fcoe_lport_config() and fcoe_netdev_config()
509  *
510  * Returns : 0 for success
511  */
512 static int fcoe_shost_config(struct fc_lport *lp, struct Scsi_Host *shost,
513                                 struct device *dev)
514 {
515         int rc = 0;
516
517         /* lport scsi host config */
518         lp->host = shost;
519
520         lp->host->max_lun = FCOE_MAX_LUN;
521         lp->host->max_id = FCOE_MAX_FCP_TARGET;
522         lp->host->max_channel = 0;
523         lp->host->transportt = scsi_transport_fcoe_sw;
524
525         /* add the new host to the SCSI-ml */
526         rc = scsi_add_host(lp->host, dev);
527         if (rc) {
528                 FCOE_NETDEV_DBG(fcoe_netdev(lp), "fcoe_shost_config: "
529                                 "error on scsi_add_host\n");
530                 return rc;
531         }
532         sprintf(fc_host_symbolic_name(lp->host), "%s v%s over %s",
533                 FCOE_NAME, FCOE_VERSION,
534                 fcoe_netdev(lp)->name);
535
536         return 0;
537 }
538
539 /*
540  * fcoe_oem_match() - match for read types IO
541  * @fp: the fc_frame for new IO.
542  *
543  * Returns : true for read types IO, otherwise returns false.
544  */
545 bool fcoe_oem_match(struct fc_frame *fp)
546 {
547         return fc_fcp_is_read(fr_fsp(fp)) &&
548                 (fr_fsp(fp)->data_len > fcoe_ddp_min);
549 }
550
551 /**
552  * fcoe_em_config() - allocates em for this lport
553  * @lp: the fcoe that em is to allocated for
554  *
555  * Returns : 0 on success
556  */
557 static inline int fcoe_em_config(struct fc_lport *lp)
558 {
559         struct fcoe_port *port = lport_priv(lp);
560         struct fcoe_interface *fcoe = port->fcoe;
561         struct fcoe_interface *oldfcoe = NULL;
562         struct net_device *old_real_dev, *cur_real_dev;
563         u16 min_xid = FCOE_MIN_XID;
564         u16 max_xid = FCOE_MAX_XID;
565
566         /*
567          * Check if need to allocate an em instance for
568          * offload exchange ids to be shared across all VN_PORTs/lport.
569          */
570         if (!lp->lro_enabled || !lp->lro_xid || (lp->lro_xid >= max_xid)) {
571                 lp->lro_xid = 0;
572                 goto skip_oem;
573         }
574
575         /*
576          * Reuse existing offload em instance in case
577          * it is already allocated on real eth device
578          */
579         if (fcoe->netdev->priv_flags & IFF_802_1Q_VLAN)
580                 cur_real_dev = vlan_dev_real_dev(fcoe->netdev);
581         else
582                 cur_real_dev = fcoe->netdev;
583
584         list_for_each_entry(oldfcoe, &fcoe_hostlist, list) {
585                 if (oldfcoe->netdev->priv_flags & IFF_802_1Q_VLAN)
586                         old_real_dev = vlan_dev_real_dev(oldfcoe->netdev);
587                 else
588                         old_real_dev = oldfcoe->netdev;
589
590                 if (cur_real_dev == old_real_dev) {
591                         fcoe->oem = oldfcoe->oem;
592                         break;
593                 }
594         }
595
596         if (fcoe->oem) {
597                 if (!fc_exch_mgr_add(lp, fcoe->oem, fcoe_oem_match)) {
598                         printk(KERN_ERR "fcoe_em_config: failed to add "
599                                "offload em:%p on interface:%s\n",
600                                fcoe->oem, fcoe->netdev->name);
601                         return -ENOMEM;
602                 }
603         } else {
604                 fcoe->oem = fc_exch_mgr_alloc(lp, FC_CLASS_3,
605                                             FCOE_MIN_XID, lp->lro_xid,
606                                             fcoe_oem_match);
607                 if (!fcoe->oem) {
608                         printk(KERN_ERR "fcoe_em_config: failed to allocate "
609                                "em for offload exches on interface:%s\n",
610                                fcoe->netdev->name);
611                         return -ENOMEM;
612                 }
613         }
614
615         /*
616          * Exclude offload EM xid range from next EM xid range.
617          */
618         min_xid += lp->lro_xid + 1;
619
620 skip_oem:
621         if (!fc_exch_mgr_alloc(lp, FC_CLASS_3, min_xid, max_xid, NULL)) {
622                 printk(KERN_ERR "fcoe_em_config: failed to "
623                        "allocate em on interface %s\n", fcoe->netdev->name);
624                 return -ENOMEM;
625         }
626
627         return 0;
628 }
629
630 /**
631  * fcoe_if_destroy() - FCoE software HBA tear-down function
632  * @lport: fc_lport to destroy
633  */
634 static void fcoe_if_destroy(struct fc_lport *lport)
635 {
636         struct fcoe_port *port = lport_priv(lport);
637         struct fcoe_interface *fcoe = port->fcoe;
638         struct net_device *netdev = fcoe->netdev;
639
640         FCOE_NETDEV_DBG(netdev, "Destroying interface\n");
641
642         /* Logout of the fabric */
643         fc_fabric_logoff(lport);
644
645         /* Cleanup the fc_lport */
646         fc_lport_destroy(lport);
647         fc_fcp_destroy(lport);
648
649         /* Stop the transmit retry timer */
650         del_timer_sync(&port->timer);
651
652         /* Free existing transmit skbs */
653         fcoe_clean_pending_queue(lport);
654
655         /* receives may not be stopped until after this */
656         fcoe_interface_put(fcoe);
657
658         /* Free queued packets for the per-CPU receive threads */
659         fcoe_percpu_clean(lport);
660
661         /* Detach from the scsi-ml */
662         fc_remove_host(lport->host);
663         scsi_remove_host(lport->host);
664
665         /* There are no more rports or I/O, free the EM */
666         fc_exch_mgr_free(lport);
667
668         /* Free memory used by statistical counters */
669         fc_lport_free_stats(lport);
670
671         /* Release the Scsi_Host */
672         scsi_host_put(lport->host);
673 }
674
675 /*
676  * fcoe_ddp_setup - calls LLD's ddp_setup through net_device
677  * @lp: the corresponding fc_lport
678  * @xid: the exchange id for this ddp transfer
679  * @sgl: the scatterlist describing this transfer
680  * @sgc: number of sg items
681  *
682  * Returns : 0 no ddp
683  */
684 static int fcoe_ddp_setup(struct fc_lport *lp, u16 xid,
685                              struct scatterlist *sgl, unsigned int sgc)
686 {
687         struct net_device *n = fcoe_netdev(lp);
688
689         if (n->netdev_ops->ndo_fcoe_ddp_setup)
690                 return n->netdev_ops->ndo_fcoe_ddp_setup(n, xid, sgl, sgc);
691
692         return 0;
693 }
694
695 /*
696  * fcoe_ddp_done - calls LLD's ddp_done through net_device
697  * @lp: the corresponding fc_lport
698  * @xid: the exchange id for this ddp transfer
699  *
700  * Returns : the length of data that have been completed by ddp
701  */
702 static int fcoe_ddp_done(struct fc_lport *lp, u16 xid)
703 {
704         struct net_device *n = fcoe_netdev(lp);
705
706         if (n->netdev_ops->ndo_fcoe_ddp_done)
707                 return n->netdev_ops->ndo_fcoe_ddp_done(n, xid);
708         return 0;
709 }
710
711 static struct libfc_function_template fcoe_libfc_fcn_templ = {
712         .frame_send = fcoe_xmit,
713         .ddp_setup = fcoe_ddp_setup,
714         .ddp_done = fcoe_ddp_done,
715 };
716
717 /**
718  * fcoe_if_create() - this function creates the fcoe port
719  * @fcoe: fcoe_interface structure to create an fc_lport instance on
720  * @parent: device pointer to be the parent in sysfs for the SCSI host
721  *
722  * Creates fc_lport struct and scsi_host for lport, configures lport.
723  *
724  * Returns : The allocated fc_lport or an error pointer
725  */
726 static struct fc_lport *fcoe_if_create(struct fcoe_interface *fcoe,
727                                        struct device *parent)
728 {
729         int rc;
730         struct fc_lport *lport = NULL;
731         struct fcoe_port *port;
732         struct Scsi_Host *shost;
733         struct net_device *netdev = fcoe->netdev;
734
735         FCOE_NETDEV_DBG(netdev, "Create Interface\n");
736
737         shost = libfc_host_alloc(&fcoe_shost_template,
738                                  sizeof(struct fcoe_port));
739         if (!shost) {
740                 FCOE_NETDEV_DBG(netdev, "Could not allocate host structure\n");
741                 rc = -ENOMEM;
742                 goto out;
743         }
744         lport = shost_priv(shost);
745         port = lport_priv(lport);
746         port->lport = lport;
747         port->fcoe = fcoe;
748         INIT_WORK(&port->destroy_work, fcoe_destroy_work);
749
750         /* configure fc_lport, e.g., em */
751         rc = fcoe_lport_config(lport);
752         if (rc) {
753                 FCOE_NETDEV_DBG(netdev, "Could not configure lport for the "
754                                 "interface\n");
755                 goto out_host_put;
756         }
757
758         /* configure lport network properties */
759         rc = fcoe_netdev_config(lport, netdev);
760         if (rc) {
761                 FCOE_NETDEV_DBG(netdev, "Could not configure netdev for the "
762                                 "interface\n");
763                 goto out_lp_destroy;
764         }
765
766         /* configure lport scsi host properties */
767         rc = fcoe_shost_config(lport, shost, parent);
768         if (rc) {
769                 FCOE_NETDEV_DBG(netdev, "Could not configure shost for the "
770                                 "interface\n");
771                 goto out_lp_destroy;
772         }
773
774         /* Initialize the library */
775         rc = fcoe_libfc_config(lport, &fcoe_libfc_fcn_templ);
776         if (rc) {
777                 FCOE_NETDEV_DBG(netdev, "Could not configure libfc for the "
778                                 "interface\n");
779                 goto out_lp_destroy;
780         }
781
782         /*
783          * fcoe_em_alloc() and fcoe_hostlist_add() both
784          * need to be atomic with respect to other changes to the hostlist
785          * since fcoe_em_alloc() looks for an existing EM
786          * instance on host list updated by fcoe_hostlist_add().
787          *
788          * This is currently handled through the fcoe_config_mutex begin held.
789          */
790
791         /* lport exch manager allocation */
792         rc = fcoe_em_config(lport);
793         if (rc) {
794                 FCOE_NETDEV_DBG(netdev, "Could not configure the EM for the "
795                                 "interface\n");
796                 goto out_lp_destroy;
797         }
798
799         fcoe_interface_get(fcoe);
800         return lport;
801
802 out_lp_destroy:
803         fc_exch_mgr_free(lport);
804 out_host_put:
805         scsi_host_put(lport->host);
806 out:
807         return ERR_PTR(rc);
808 }
809
810 /**
811  * fcoe_if_init() - attach to scsi transport
812  *
813  * Returns : 0 on success
814  */
815 static int __init fcoe_if_init(void)
816 {
817         /* attach to scsi transport */
818         scsi_transport_fcoe_sw =
819                 fc_attach_transport(&fcoe_transport_function);
820
821         if (!scsi_transport_fcoe_sw) {
822                 printk(KERN_ERR "fcoe: Failed to attach to the FC transport\n");
823                 return -ENODEV;
824         }
825
826         return 0;
827 }
828
829 /**
830  * fcoe_if_exit() - detach from scsi transport
831  *
832  * Returns : 0 on success
833  */
834 int __exit fcoe_if_exit(void)
835 {
836         fc_release_transport(scsi_transport_fcoe_sw);
837         scsi_transport_fcoe_sw = NULL;
838         return 0;
839 }
840
841 /**
842  * fcoe_percpu_thread_create() - Create a receive thread for an online cpu
843  * @cpu: cpu index for the online cpu
844  */
845 static void fcoe_percpu_thread_create(unsigned int cpu)
846 {
847         struct fcoe_percpu_s *p;
848         struct task_struct *thread;
849
850         p = &per_cpu(fcoe_percpu, cpu);
851
852         thread = kthread_create(fcoe_percpu_receive_thread,
853                                 (void *)p, "fcoethread/%d", cpu);
854
855         if (likely(!IS_ERR(thread))) {
856                 kthread_bind(thread, cpu);
857                 wake_up_process(thread);
858
859                 spin_lock_bh(&p->fcoe_rx_list.lock);
860                 p->thread = thread;
861                 spin_unlock_bh(&p->fcoe_rx_list.lock);
862         }
863 }
864
865 /**
866  * fcoe_percpu_thread_destroy() - removes the rx thread for the given cpu
867  * @cpu: cpu index the rx thread is to be removed
868  *
869  * Destroys a per-CPU Rx thread. Any pending skbs are moved to the
870  * current CPU's Rx thread. If the thread being destroyed is bound to
871  * the CPU processing this context the skbs will be freed.
872  */
873 static void fcoe_percpu_thread_destroy(unsigned int cpu)
874 {
875         struct fcoe_percpu_s *p;
876         struct task_struct *thread;
877         struct page *crc_eof;
878         struct sk_buff *skb;
879 #ifdef CONFIG_SMP
880         struct fcoe_percpu_s *p0;
881         unsigned targ_cpu = smp_processor_id();
882 #endif /* CONFIG_SMP */
883
884         FCOE_DBG("Destroying receive thread for CPU %d\n", cpu);
885
886         /* Prevent any new skbs from being queued for this CPU. */
887         p = &per_cpu(fcoe_percpu, cpu);
888         spin_lock_bh(&p->fcoe_rx_list.lock);
889         thread = p->thread;
890         p->thread = NULL;
891         crc_eof = p->crc_eof_page;
892         p->crc_eof_page = NULL;
893         p->crc_eof_offset = 0;
894         spin_unlock_bh(&p->fcoe_rx_list.lock);
895
896 #ifdef CONFIG_SMP
897         /*
898          * Don't bother moving the skb's if this context is running
899          * on the same CPU that is having its thread destroyed. This
900          * can easily happen when the module is removed.
901          */
902         if (cpu != targ_cpu) {
903                 p0 = &per_cpu(fcoe_percpu, targ_cpu);
904                 spin_lock_bh(&p0->fcoe_rx_list.lock);
905                 if (p0->thread) {
906                         FCOE_DBG("Moving frames from CPU %d to CPU %d\n",
907                                  cpu, targ_cpu);
908
909                         while ((skb = __skb_dequeue(&p->fcoe_rx_list)) != NULL)
910                                 __skb_queue_tail(&p0->fcoe_rx_list, skb);
911                         spin_unlock_bh(&p0->fcoe_rx_list.lock);
912                 } else {
913                         /*
914                          * The targeted CPU is not initialized and cannot accept
915                          * new  skbs. Unlock the targeted CPU and drop the skbs
916                          * on the CPU that is going offline.
917                          */
918                         while ((skb = __skb_dequeue(&p->fcoe_rx_list)) != NULL)
919                                 kfree_skb(skb);
920                         spin_unlock_bh(&p0->fcoe_rx_list.lock);
921                 }
922         } else {
923                 /*
924                  * This scenario occurs when the module is being removed
925                  * and all threads are being destroyed. skbs will continue
926                  * to be shifted from the CPU thread that is being removed
927                  * to the CPU thread associated with the CPU that is processing
928                  * the module removal. Once there is only one CPU Rx thread it
929                  * will reach this case and we will drop all skbs and later
930                  * stop the thread.
931                  */
932                 spin_lock_bh(&p->fcoe_rx_list.lock);
933                 while ((skb = __skb_dequeue(&p->fcoe_rx_list)) != NULL)
934                         kfree_skb(skb);
935                 spin_unlock_bh(&p->fcoe_rx_list.lock);
936         }
937 #else
938         /*
939          * This a non-SMP scenario where the singular Rx thread is
940          * being removed. Free all skbs and stop the thread.
941          */
942         spin_lock_bh(&p->fcoe_rx_list.lock);
943         while ((skb = __skb_dequeue(&p->fcoe_rx_list)) != NULL)
944                 kfree_skb(skb);
945         spin_unlock_bh(&p->fcoe_rx_list.lock);
946 #endif
947
948         if (thread)
949                 kthread_stop(thread);
950
951         if (crc_eof)
952                 put_page(crc_eof);
953 }
954
955 /**
956  * fcoe_cpu_callback() - fcoe cpu hotplug event callback
957  * @nfb: callback data block
958  * @action: event triggering the callback
959  * @hcpu: index for the cpu of this event
960  *
961  * This creates or destroys per cpu data for fcoe
962  *
963  * Returns NOTIFY_OK always.
964  */
965 static int fcoe_cpu_callback(struct notifier_block *nfb,
966                              unsigned long action, void *hcpu)
967 {
968         unsigned cpu = (unsigned long)hcpu;
969
970         switch (action) {
971         case CPU_ONLINE:
972         case CPU_ONLINE_FROZEN:
973                 FCOE_DBG("CPU %x online: Create Rx thread\n", cpu);
974                 fcoe_percpu_thread_create(cpu);
975                 break;
976         case CPU_DEAD:
977         case CPU_DEAD_FROZEN:
978                 FCOE_DBG("CPU %x offline: Remove Rx thread\n", cpu);
979                 fcoe_percpu_thread_destroy(cpu);
980                 break;
981         default:
982                 break;
983         }
984         return NOTIFY_OK;
985 }
986
987 static struct notifier_block fcoe_cpu_notifier = {
988         .notifier_call = fcoe_cpu_callback,
989 };
990
991 /**
992  * fcoe_rcv() - this is the fcoe receive function called by NET_RX_SOFTIRQ
993  * @skb: the receive skb
994  * @dev: associated net device
995  * @ptype: context
996  * @olddev: last device
997  *
998  * this function will receive the packet and build fc frame and pass it up
999  *
1000  * Returns: 0 for success
1001  */
1002 int fcoe_rcv(struct sk_buff *skb, struct net_device *dev,
1003              struct packet_type *ptype, struct net_device *olddev)
1004 {
1005         struct fc_lport *lp;
1006         struct fcoe_rcv_info *fr;
1007         struct fcoe_interface *fcoe;
1008         struct fc_frame_header *fh;
1009         struct fcoe_percpu_s *fps;
1010         unsigned int cpu;
1011
1012         fcoe = container_of(ptype, struct fcoe_interface, fcoe_packet_type);
1013         lp = fcoe->ctlr.lp;
1014         if (unlikely(lp == NULL)) {
1015                 FCOE_NETDEV_DBG(dev, "Cannot find hba structure");
1016                 goto err2;
1017         }
1018         if (!lp->link_up)
1019                 goto err2;
1020
1021         FCOE_NETDEV_DBG(dev, "skb_info: len:%d data_len:%d head:%p "
1022                         "data:%p tail:%p end:%p sum:%d dev:%s",
1023                         skb->len, skb->data_len, skb->head, skb->data,
1024                         skb_tail_pointer(skb), skb_end_pointer(skb),
1025                         skb->csum, skb->dev ? skb->dev->name : "<NULL>");
1026
1027         /* check for FCOE packet type */
1028         if (unlikely(eth_hdr(skb)->h_proto != htons(ETH_P_FCOE))) {
1029                 FCOE_NETDEV_DBG(dev, "Wrong FC type frame");
1030                 goto err;
1031         }
1032
1033         /*
1034          * Check for minimum frame length, and make sure required FCoE
1035          * and FC headers are pulled into the linear data area.
1036          */
1037         if (unlikely((skb->len < FCOE_MIN_FRAME) ||
1038             !pskb_may_pull(skb, FCOE_HEADER_LEN)))
1039                 goto err;
1040
1041         skb_set_transport_header(skb, sizeof(struct fcoe_hdr));
1042         fh = (struct fc_frame_header *) skb_transport_header(skb);
1043
1044         fr = fcoe_dev_from_skb(skb);
1045         fr->fr_dev = lp;
1046         fr->ptype = ptype;
1047
1048         /*
1049          * In case the incoming frame's exchange is originated from
1050          * the initiator, then received frame's exchange id is ANDed
1051          * with fc_cpu_mask bits to get the same cpu on which exchange
1052          * was originated, otherwise just use the current cpu.
1053          */
1054         if (ntoh24(fh->fh_f_ctl) & FC_FC_EX_CTX)
1055                 cpu = ntohs(fh->fh_ox_id) & fc_cpu_mask;
1056         else
1057                 cpu = smp_processor_id();
1058
1059         fps = &per_cpu(fcoe_percpu, cpu);
1060         spin_lock_bh(&fps->fcoe_rx_list.lock);
1061         if (unlikely(!fps->thread)) {
1062                 /*
1063                  * The targeted CPU is not ready, let's target
1064                  * the first CPU now. For non-SMP systems this
1065                  * will check the same CPU twice.
1066                  */
1067                 FCOE_NETDEV_DBG(dev, "CPU is online, but no receive thread "
1068                                 "ready for incoming skb- using first online "
1069                                 "CPU.\n");
1070
1071                 spin_unlock_bh(&fps->fcoe_rx_list.lock);
1072                 cpu = first_cpu(cpu_online_map);
1073                 fps = &per_cpu(fcoe_percpu, cpu);
1074                 spin_lock_bh(&fps->fcoe_rx_list.lock);
1075                 if (!fps->thread) {
1076                         spin_unlock_bh(&fps->fcoe_rx_list.lock);
1077                         goto err;
1078                 }
1079         }
1080
1081         /*
1082          * We now have a valid CPU that we're targeting for
1083          * this skb. We also have this receive thread locked,
1084          * so we're free to queue skbs into it's queue.
1085          */
1086         __skb_queue_tail(&fps->fcoe_rx_list, skb);
1087         if (fps->fcoe_rx_list.qlen == 1)
1088                 wake_up_process(fps->thread);
1089
1090         spin_unlock_bh(&fps->fcoe_rx_list.lock);
1091
1092         return 0;
1093 err:
1094         fc_lport_get_stats(lp)->ErrorFrames++;
1095
1096 err2:
1097         kfree_skb(skb);
1098         return -1;
1099 }
1100
1101 /**
1102  * fcoe_start_io() - pass to netdev to start xmit for fcoe
1103  * @skb: the skb to be xmitted
1104  *
1105  * Returns: 0 for success
1106  */
1107 static inline int fcoe_start_io(struct sk_buff *skb)
1108 {
1109         int rc;
1110
1111         skb_get(skb);
1112         rc = dev_queue_xmit(skb);
1113         if (rc != 0)
1114                 return rc;
1115         kfree_skb(skb);
1116         return 0;
1117 }
1118
1119 /**
1120  * fcoe_get_paged_crc_eof() - in case we need to alloc a page for crc_eof
1121  * @skb: the skb to be xmitted
1122  * @tlen: total len
1123  *
1124  * Returns: 0 for success
1125  */
1126 static int fcoe_get_paged_crc_eof(struct sk_buff *skb, int tlen)
1127 {
1128         struct fcoe_percpu_s *fps;
1129         struct page *page;
1130
1131         fps = &get_cpu_var(fcoe_percpu);
1132         page = fps->crc_eof_page;
1133         if (!page) {
1134                 page = alloc_page(GFP_ATOMIC);
1135                 if (!page) {
1136                         put_cpu_var(fcoe_percpu);
1137                         return -ENOMEM;
1138                 }
1139                 fps->crc_eof_page = page;
1140                 fps->crc_eof_offset = 0;
1141         }
1142
1143         get_page(page);
1144         skb_fill_page_desc(skb, skb_shinfo(skb)->nr_frags, page,
1145                            fps->crc_eof_offset, tlen);
1146         skb->len += tlen;
1147         skb->data_len += tlen;
1148         skb->truesize += tlen;
1149         fps->crc_eof_offset += sizeof(struct fcoe_crc_eof);
1150
1151         if (fps->crc_eof_offset >= PAGE_SIZE) {
1152                 fps->crc_eof_page = NULL;
1153                 fps->crc_eof_offset = 0;
1154                 put_page(page);
1155         }
1156         put_cpu_var(fcoe_percpu);
1157         return 0;
1158 }
1159
1160 /**
1161  * fcoe_fc_crc() - calculates FC CRC in this fcoe skb
1162  * @fp: the fc_frame containing data to be checksummed
1163  *
1164  * This uses crc32() to calculate the crc for port frame
1165  * Return   : 32 bit crc
1166  */
1167 u32 fcoe_fc_crc(struct fc_frame *fp)
1168 {
1169         struct sk_buff *skb = fp_skb(fp);
1170         struct skb_frag_struct *frag;
1171         unsigned char *data;
1172         unsigned long off, len, clen;
1173         u32 crc;
1174         unsigned i;
1175
1176         crc = crc32(~0, skb->data, skb_headlen(skb));
1177
1178         for (i = 0; i < skb_shinfo(skb)->nr_frags; i++) {
1179                 frag = &skb_shinfo(skb)->frags[i];
1180                 off = frag->page_offset;
1181                 len = frag->size;
1182                 while (len > 0) {
1183                         clen = min(len, PAGE_SIZE - (off & ~PAGE_MASK));
1184                         data = kmap_atomic(frag->page + (off >> PAGE_SHIFT),
1185                                            KM_SKB_DATA_SOFTIRQ);
1186                         crc = crc32(crc, data + (off & ~PAGE_MASK), clen);
1187                         kunmap_atomic(data, KM_SKB_DATA_SOFTIRQ);
1188                         off += clen;
1189                         len -= clen;
1190                 }
1191         }
1192         return crc;
1193 }
1194
1195 /**
1196  * fcoe_xmit() - FCoE frame transmit function
1197  * @lp: the associated local fcoe
1198  * @fp: the fc_frame to be transmitted
1199  *
1200  * Return   : 0 for success
1201  */
1202 int fcoe_xmit(struct fc_lport *lp, struct fc_frame *fp)
1203 {
1204         int wlen;
1205         u32 crc;
1206         struct ethhdr *eh;
1207         struct fcoe_crc_eof *cp;
1208         struct sk_buff *skb;
1209         struct fcoe_dev_stats *stats;
1210         struct fc_frame_header *fh;
1211         unsigned int hlen;              /* header length implies the version */
1212         unsigned int tlen;              /* trailer length */
1213         unsigned int elen;              /* eth header, may include vlan */
1214         struct fcoe_port *port = lport_priv(lp);
1215         struct fcoe_interface *fcoe = port->fcoe;
1216         u8 sof, eof;
1217         struct fcoe_hdr *hp;
1218
1219         WARN_ON((fr_len(fp) % sizeof(u32)) != 0);
1220
1221         fh = fc_frame_header_get(fp);
1222         skb = fp_skb(fp);
1223         wlen = skb->len / FCOE_WORD_TO_BYTE;
1224
1225         if (!lp->link_up) {
1226                 kfree_skb(skb);
1227                 return 0;
1228         }
1229
1230         if (unlikely(fh->fh_r_ctl == FC_RCTL_ELS_REQ) &&
1231             fcoe_ctlr_els_send(&fcoe->ctlr, skb))
1232                 return 0;
1233
1234         sof = fr_sof(fp);
1235         eof = fr_eof(fp);
1236
1237         elen = sizeof(struct ethhdr);
1238         hlen = sizeof(struct fcoe_hdr);
1239         tlen = sizeof(struct fcoe_crc_eof);
1240         wlen = (skb->len - tlen + sizeof(crc)) / FCOE_WORD_TO_BYTE;
1241
1242         /* crc offload */
1243         if (likely(lp->crc_offload)) {
1244                 skb->ip_summed = CHECKSUM_PARTIAL;
1245                 skb->csum_start = skb_headroom(skb);
1246                 skb->csum_offset = skb->len;
1247                 crc = 0;
1248         } else {
1249                 skb->ip_summed = CHECKSUM_NONE;
1250                 crc = fcoe_fc_crc(fp);
1251         }
1252
1253         /* copy port crc and eof to the skb buff */
1254         if (skb_is_nonlinear(skb)) {
1255                 skb_frag_t *frag;
1256                 if (fcoe_get_paged_crc_eof(skb, tlen)) {
1257                         kfree_skb(skb);
1258                         return -ENOMEM;
1259                 }
1260                 frag = &skb_shinfo(skb)->frags[skb_shinfo(skb)->nr_frags - 1];
1261                 cp = kmap_atomic(frag->page, KM_SKB_DATA_SOFTIRQ)
1262                         + frag->page_offset;
1263         } else {
1264                 cp = (struct fcoe_crc_eof *)skb_put(skb, tlen);
1265         }
1266
1267         memset(cp, 0, sizeof(*cp));
1268         cp->fcoe_eof = eof;
1269         cp->fcoe_crc32 = cpu_to_le32(~crc);
1270
1271         if (skb_is_nonlinear(skb)) {
1272                 kunmap_atomic(cp, KM_SKB_DATA_SOFTIRQ);
1273                 cp = NULL;
1274         }
1275
1276         /* adjust skb network/transport offsets to match mac/fcoe/port */
1277         skb_push(skb, elen + hlen);
1278         skb_reset_mac_header(skb);
1279         skb_reset_network_header(skb);
1280         skb->mac_len = elen;
1281         skb->protocol = htons(ETH_P_FCOE);
1282         skb->dev = fcoe->netdev;
1283
1284         /* fill up mac and fcoe headers */
1285         eh = eth_hdr(skb);
1286         eh->h_proto = htons(ETH_P_FCOE);
1287         if (fcoe->ctlr.map_dest)
1288                 fc_fcoe_set_mac(eh->h_dest, fh->fh_d_id);
1289         else
1290                 /* insert GW address */
1291                 memcpy(eh->h_dest, fcoe->ctlr.dest_addr, ETH_ALEN);
1292
1293         if (unlikely(fcoe->ctlr.flogi_oxid != FC_XID_UNKNOWN))
1294                 memcpy(eh->h_source, fcoe->ctlr.ctl_src_addr, ETH_ALEN);
1295         else
1296                 memcpy(eh->h_source, fcoe->ctlr.data_src_addr, ETH_ALEN);
1297
1298         hp = (struct fcoe_hdr *)(eh + 1);
1299         memset(hp, 0, sizeof(*hp));
1300         if (FC_FCOE_VER)
1301                 FC_FCOE_ENCAPS_VER(hp, FC_FCOE_VER);
1302         hp->fcoe_sof = sof;
1303
1304         /* fcoe lso, mss is in max_payload which is non-zero for FCP data */
1305         if (lp->seq_offload && fr_max_payload(fp)) {
1306                 skb_shinfo(skb)->gso_type = SKB_GSO_FCOE;
1307                 skb_shinfo(skb)->gso_size = fr_max_payload(fp);
1308         } else {
1309                 skb_shinfo(skb)->gso_type = 0;
1310                 skb_shinfo(skb)->gso_size = 0;
1311         }
1312         /* update tx stats: regardless if LLD fails */
1313         stats = fc_lport_get_stats(lp);
1314         stats->TxFrames++;
1315         stats->TxWords += wlen;
1316
1317         /* send down to lld */
1318         fr_dev(fp) = lp;
1319         if (port->fcoe_pending_queue.qlen)
1320                 fcoe_check_wait_queue(lp, skb);
1321         else if (fcoe_start_io(skb))
1322                 fcoe_check_wait_queue(lp, skb);
1323
1324         return 0;
1325 }
1326
1327 /**
1328  * fcoe_percpu_flush_done() - Indicate percpu queue flush completion.
1329  * @skb: the skb being completed.
1330  */
1331 static void fcoe_percpu_flush_done(struct sk_buff *skb)
1332 {
1333         complete(&fcoe_flush_completion);
1334 }
1335
1336 /**
1337  * fcoe_percpu_receive_thread() - recv thread per cpu
1338  * @arg: ptr to the fcoe per cpu struct
1339  *
1340  * Return: 0 for success
1341  */
1342 int fcoe_percpu_receive_thread(void *arg)
1343 {
1344         struct fcoe_percpu_s *p = arg;
1345         u32 fr_len;
1346         struct fc_lport *lp;
1347         struct fcoe_rcv_info *fr;
1348         struct fcoe_dev_stats *stats;
1349         struct fc_frame_header *fh;
1350         struct sk_buff *skb;
1351         struct fcoe_crc_eof crc_eof;
1352         struct fc_frame *fp;
1353         u8 *mac = NULL;
1354         struct fcoe_port *port;
1355         struct fcoe_hdr *hp;
1356
1357         set_user_nice(current, -20);
1358
1359         while (!kthread_should_stop()) {
1360
1361                 spin_lock_bh(&p->fcoe_rx_list.lock);
1362                 while ((skb = __skb_dequeue(&p->fcoe_rx_list)) == NULL) {
1363                         set_current_state(TASK_INTERRUPTIBLE);
1364                         spin_unlock_bh(&p->fcoe_rx_list.lock);
1365                         schedule();
1366                         set_current_state(TASK_RUNNING);
1367                         if (kthread_should_stop())
1368                                 return 0;
1369                         spin_lock_bh(&p->fcoe_rx_list.lock);
1370                 }
1371                 spin_unlock_bh(&p->fcoe_rx_list.lock);
1372                 fr = fcoe_dev_from_skb(skb);
1373                 lp = fr->fr_dev;
1374                 if (unlikely(lp == NULL)) {
1375                         if (skb->destructor != fcoe_percpu_flush_done)
1376                                 FCOE_NETDEV_DBG(skb->dev, "NULL lport in skb");
1377                         kfree_skb(skb);
1378                         continue;
1379                 }
1380
1381                 FCOE_NETDEV_DBG(skb->dev, "skb_info: len:%d data_len:%d "
1382                                 "head:%p data:%p tail:%p end:%p sum:%d dev:%s",
1383                                 skb->len, skb->data_len,
1384                                 skb->head, skb->data, skb_tail_pointer(skb),
1385                                 skb_end_pointer(skb), skb->csum,
1386                                 skb->dev ? skb->dev->name : "<NULL>");
1387
1388                 /*
1389                  * Save source MAC address before discarding header.
1390                  */
1391                 port = lport_priv(lp);
1392                 if (skb_is_nonlinear(skb))
1393                         skb_linearize(skb);     /* not ideal */
1394                 mac = eth_hdr(skb)->h_source;
1395
1396                 /*
1397                  * Frame length checks and setting up the header pointers
1398                  * was done in fcoe_rcv already.
1399                  */
1400                 hp = (struct fcoe_hdr *) skb_network_header(skb);
1401                 fh = (struct fc_frame_header *) skb_transport_header(skb);
1402
1403                 stats = fc_lport_get_stats(lp);
1404                 if (unlikely(FC_FCOE_DECAPS_VER(hp) != FC_FCOE_VER)) {
1405                         if (stats->ErrorFrames < 5)
1406                                 printk(KERN_WARNING "fcoe: FCoE version "
1407                                        "mismatch: The frame has "
1408                                        "version %x, but the "
1409                                        "initiator supports version "
1410                                        "%x\n", FC_FCOE_DECAPS_VER(hp),
1411                                        FC_FCOE_VER);
1412                         stats->ErrorFrames++;
1413                         kfree_skb(skb);
1414                         continue;
1415                 }
1416
1417                 skb_pull(skb, sizeof(struct fcoe_hdr));
1418                 fr_len = skb->len - sizeof(struct fcoe_crc_eof);
1419
1420                 stats->RxFrames++;
1421                 stats->RxWords += fr_len / FCOE_WORD_TO_BYTE;
1422
1423                 fp = (struct fc_frame *)skb;
1424                 fc_frame_init(fp);
1425                 fr_dev(fp) = lp;
1426                 fr_sof(fp) = hp->fcoe_sof;
1427
1428                 /* Copy out the CRC and EOF trailer for access */
1429                 if (skb_copy_bits(skb, fr_len, &crc_eof, sizeof(crc_eof))) {
1430                         kfree_skb(skb);
1431                         continue;
1432                 }
1433                 fr_eof(fp) = crc_eof.fcoe_eof;
1434                 fr_crc(fp) = crc_eof.fcoe_crc32;
1435                 if (pskb_trim(skb, fr_len)) {
1436                         kfree_skb(skb);
1437                         continue;
1438                 }
1439
1440                 /*
1441                  * We only check CRC if no offload is available and if it is
1442                  * it's solicited data, in which case, the FCP layer would
1443                  * check it during the copy.
1444                  */
1445                 if (lp->crc_offload && skb->ip_summed == CHECKSUM_UNNECESSARY)
1446                         fr_flags(fp) &= ~FCPHF_CRC_UNCHECKED;
1447                 else
1448                         fr_flags(fp) |= FCPHF_CRC_UNCHECKED;
1449
1450                 fh = fc_frame_header_get(fp);
1451                 if (fh->fh_r_ctl == FC_RCTL_DD_SOL_DATA &&
1452                     fh->fh_type == FC_TYPE_FCP) {
1453                         fc_exch_recv(lp, fp);
1454                         continue;
1455                 }
1456                 if (fr_flags(fp) & FCPHF_CRC_UNCHECKED) {
1457                         if (le32_to_cpu(fr_crc(fp)) !=
1458                             ~crc32(~0, skb->data, fr_len)) {
1459                                 if (stats->InvalidCRCCount < 5)
1460                                         printk(KERN_WARNING "fcoe: dropping "
1461                                                "frame with CRC error\n");
1462                                 stats->InvalidCRCCount++;
1463                                 stats->ErrorFrames++;
1464                                 fc_frame_free(fp);
1465                                 continue;
1466                         }
1467                         fr_flags(fp) &= ~FCPHF_CRC_UNCHECKED;
1468                 }
1469                 if (unlikely(port->fcoe->ctlr.flogi_oxid != FC_XID_UNKNOWN) &&
1470                     fcoe_ctlr_recv_flogi(&port->fcoe->ctlr, fp, mac)) {
1471                         fc_frame_free(fp);
1472                         continue;
1473                 }
1474                 fc_exch_recv(lp, fp);
1475         }
1476         return 0;
1477 }
1478
1479 /**
1480  * fcoe_check_wait_queue() - attempt to clear the transmit backlog
1481  * @lp: the fc_lport
1482  *
1483  * This empties the wait_queue, dequeue the head of the wait_queue queue
1484  * and calls fcoe_start_io() for each packet, if all skb have been
1485  * transmitted, return qlen or -1 if a error occurs, then restore
1486  * wait_queue and try again later.
1487  *
1488  * The wait_queue is used when the skb transmit fails. skb will go
1489  * in the wait_queue which will be emptied by the timer function or
1490  * by the next skb transmit.
1491  */
1492 static void fcoe_check_wait_queue(struct fc_lport *lp, struct sk_buff *skb)
1493 {
1494         struct fcoe_port *port = lport_priv(lp);
1495         int rc;
1496
1497         spin_lock_bh(&port->fcoe_pending_queue.lock);
1498
1499         if (skb)
1500                 __skb_queue_tail(&port->fcoe_pending_queue, skb);
1501
1502         if (port->fcoe_pending_queue_active)
1503                 goto out;
1504         port->fcoe_pending_queue_active = 1;
1505
1506         while (port->fcoe_pending_queue.qlen) {
1507                 /* keep qlen > 0 until fcoe_start_io succeeds */
1508                 port->fcoe_pending_queue.qlen++;
1509                 skb = __skb_dequeue(&port->fcoe_pending_queue);
1510
1511                 spin_unlock_bh(&port->fcoe_pending_queue.lock);
1512                 rc = fcoe_start_io(skb);
1513                 spin_lock_bh(&port->fcoe_pending_queue.lock);
1514
1515                 if (rc) {
1516                         __skb_queue_head(&port->fcoe_pending_queue, skb);
1517                         /* undo temporary increment above */
1518                         port->fcoe_pending_queue.qlen--;
1519                         break;
1520                 }
1521                 /* undo temporary increment above */
1522                 port->fcoe_pending_queue.qlen--;
1523         }
1524
1525         if (port->fcoe_pending_queue.qlen < FCOE_LOW_QUEUE_DEPTH)
1526                 lp->qfull = 0;
1527         if (port->fcoe_pending_queue.qlen && !timer_pending(&port->timer))
1528                 mod_timer(&port->timer, jiffies + 2);
1529         port->fcoe_pending_queue_active = 0;
1530 out:
1531         if (port->fcoe_pending_queue.qlen > FCOE_MAX_QUEUE_DEPTH)
1532                 lp->qfull = 1;
1533         spin_unlock_bh(&port->fcoe_pending_queue.lock);
1534         return;
1535 }
1536
1537 /**
1538  * fcoe_dev_setup() - setup link change notification interface
1539  */
1540 static void fcoe_dev_setup(void)
1541 {
1542         register_netdevice_notifier(&fcoe_notifier);
1543 }
1544
1545 /**
1546  * fcoe_dev_cleanup() - cleanup link change notification interface
1547  */
1548 static void fcoe_dev_cleanup(void)
1549 {
1550         unregister_netdevice_notifier(&fcoe_notifier);
1551 }
1552
1553 /**
1554  * fcoe_device_notification() - netdev event notification callback
1555  * @notifier: context of the notification
1556  * @event: type of event
1557  * @ptr: fixed array for output parsed ifname
1558  *
1559  * This function is called by the ethernet driver in case of link change event
1560  *
1561  * Returns: 0 for success
1562  */
1563 static int fcoe_device_notification(struct notifier_block *notifier,
1564                                     ulong event, void *ptr)
1565 {
1566         struct fc_lport *lp = NULL;
1567         struct net_device *netdev = ptr;
1568         struct fcoe_interface *fcoe;
1569         struct fcoe_port *port;
1570         struct fcoe_dev_stats *stats;
1571         u32 link_possible = 1;
1572         u32 mfs;
1573         int rc = NOTIFY_OK;
1574
1575         list_for_each_entry(fcoe, &fcoe_hostlist, list) {
1576                 if (fcoe->netdev == netdev) {
1577                         lp = fcoe->ctlr.lp;
1578                         break;
1579                 }
1580         }
1581         if (lp == NULL) {
1582                 rc = NOTIFY_DONE;
1583                 goto out;
1584         }
1585
1586         switch (event) {
1587         case NETDEV_DOWN:
1588         case NETDEV_GOING_DOWN:
1589                 link_possible = 0;
1590                 break;
1591         case NETDEV_UP:
1592         case NETDEV_CHANGE:
1593                 break;
1594         case NETDEV_CHANGEMTU:
1595                 if (netdev->features & NETIF_F_FCOE_MTU)
1596                         break;
1597                 mfs = netdev->mtu - (sizeof(struct fcoe_hdr) +
1598                                      sizeof(struct fcoe_crc_eof));
1599                 if (mfs >= FC_MIN_MAX_FRAME)
1600                         fc_set_mfs(lp, mfs);
1601                 break;
1602         case NETDEV_REGISTER:
1603                 break;
1604         case NETDEV_UNREGISTER:
1605                 list_del(&fcoe->list);
1606                 port = lport_priv(fcoe->ctlr.lp);
1607                 fcoe_interface_cleanup(fcoe);
1608                 schedule_work(&port->destroy_work);
1609                 goto out;
1610                 break;
1611         default:
1612                 FCOE_NETDEV_DBG(netdev, "Unknown event %ld "
1613                                 "from netdev netlink\n", event);
1614         }
1615         if (link_possible && !fcoe_link_ok(lp))
1616                 fcoe_ctlr_link_up(&fcoe->ctlr);
1617         else if (fcoe_ctlr_link_down(&fcoe->ctlr)) {
1618                 stats = fc_lport_get_stats(lp);
1619                 stats->LinkFailureCount++;
1620                 fcoe_clean_pending_queue(lp);
1621         }
1622 out:
1623         return rc;
1624 }
1625
1626 /**
1627  * fcoe_if_to_netdev() - parse a name buffer to get netdev
1628  * @buffer: incoming buffer to be copied
1629  *
1630  * Returns: NULL or ptr to net_device
1631  */
1632 static struct net_device *fcoe_if_to_netdev(const char *buffer)
1633 {
1634         char *cp;
1635         char ifname[IFNAMSIZ + 2];
1636
1637         if (buffer) {
1638                 strlcpy(ifname, buffer, IFNAMSIZ);
1639                 cp = ifname + strlen(ifname);
1640                 while (--cp >= ifname && *cp == '\n')
1641                         *cp = '\0';
1642                 return dev_get_by_name(&init_net, ifname);
1643         }
1644         return NULL;
1645 }
1646
1647 /**
1648  * fcoe_destroy() - handles the destroy from sysfs
1649  * @buffer: expected to be an eth if name
1650  * @kp: associated kernel param
1651  *
1652  * Returns: 0 for success
1653  */
1654 static int fcoe_destroy(const char *buffer, struct kernel_param *kp)
1655 {
1656         struct fcoe_interface *fcoe;
1657         struct net_device *netdev;
1658         int rc = 0;
1659
1660         mutex_lock(&fcoe_config_mutex);
1661 #ifdef CONFIG_FCOE_MODULE
1662         /*
1663          * Make sure the module has been initialized, and is not about to be
1664          * removed.  Module paramter sysfs files are writable before the
1665          * module_init function is called and after module_exit.
1666          */
1667         if (THIS_MODULE->state != MODULE_STATE_LIVE) {
1668                 rc = -ENODEV;
1669                 goto out_nodev;
1670         }
1671 #endif
1672
1673         netdev = fcoe_if_to_netdev(buffer);
1674         if (!netdev) {
1675                 rc = -ENODEV;
1676                 goto out_nodev;
1677         }
1678
1679         rtnl_lock();
1680         fcoe = fcoe_hostlist_lookup_port(netdev);
1681         if (!fcoe) {
1682                 rtnl_unlock();
1683                 rc = -ENODEV;
1684                 goto out_putdev;
1685         }
1686         list_del(&fcoe->list);
1687         fcoe_interface_cleanup(fcoe);
1688         rtnl_unlock();
1689         fcoe_if_destroy(fcoe->ctlr.lp);
1690 out_putdev:
1691         dev_put(netdev);
1692 out_nodev:
1693         mutex_unlock(&fcoe_config_mutex);
1694         return rc;
1695 }
1696
1697 static void fcoe_destroy_work(struct work_struct *work)
1698 {
1699         struct fcoe_port *port;
1700
1701         port = container_of(work, struct fcoe_port, destroy_work);
1702         mutex_lock(&fcoe_config_mutex);
1703         fcoe_if_destroy(port->lport);
1704         mutex_unlock(&fcoe_config_mutex);
1705 }
1706
1707 /**
1708  * fcoe_create() - Handles the create call from sysfs
1709  * @buffer: expected to be an eth if name
1710  * @kp: associated kernel param
1711  *
1712  * Returns: 0 for success
1713  */
1714 static int fcoe_create(const char *buffer, struct kernel_param *kp)
1715 {
1716         int rc;
1717         struct fcoe_interface *fcoe;
1718         struct fc_lport *lport;
1719         struct net_device *netdev;
1720
1721         mutex_lock(&fcoe_config_mutex);
1722 #ifdef CONFIG_FCOE_MODULE
1723         /*
1724          * Make sure the module has been initialized, and is not about to be
1725          * removed.  Module paramter sysfs files are writable before the
1726          * module_init function is called and after module_exit.
1727          */
1728         if (THIS_MODULE->state != MODULE_STATE_LIVE) {
1729                 rc = -ENODEV;
1730                 goto out_nodev;
1731         }
1732 #endif
1733
1734         rtnl_lock();
1735         netdev = fcoe_if_to_netdev(buffer);
1736         if (!netdev) {
1737                 rc = -ENODEV;
1738                 goto out_nodev;
1739         }
1740
1741         /* look for existing lport */
1742         if (fcoe_hostlist_lookup(netdev)) {
1743                 rc = -EEXIST;
1744                 goto out_putdev;
1745         }
1746
1747         fcoe = fcoe_interface_create(netdev);
1748         if (!fcoe) {
1749                 rc = -ENOMEM;
1750                 goto out_putdev;
1751         }
1752
1753         lport = fcoe_if_create(fcoe, &netdev->dev);
1754         if (IS_ERR(lport)) {
1755                 printk(KERN_ERR "fcoe: Failed to create interface (%s)\n",
1756                        netdev->name);
1757                 rc = -EIO;
1758                 fcoe_interface_cleanup(fcoe);
1759                 goto out_free;
1760         }
1761
1762         /* Make this the "master" N_Port */
1763         fcoe->ctlr.lp = lport;
1764
1765         /* add to lports list */
1766         fcoe_hostlist_add(lport);
1767
1768         /* start FIP Discovery and FLOGI */
1769         lport->boot_time = jiffies;
1770         fc_fabric_login(lport);
1771         if (!fcoe_link_ok(lport))
1772                 fcoe_ctlr_link_up(&fcoe->ctlr);
1773
1774         rc = 0;
1775 out_free:
1776         /*
1777          * Release from init in fcoe_interface_create(), on success lport
1778          * should be holding a reference taken in fcoe_if_create().
1779          */
1780         fcoe_interface_put(fcoe);
1781 out_putdev:
1782         dev_put(netdev);
1783 out_nodev:
1784         rtnl_unlock();
1785         mutex_unlock(&fcoe_config_mutex);
1786         return rc;
1787 }
1788
1789 module_param_call(create, fcoe_create, NULL, NULL, S_IWUSR);
1790 __MODULE_PARM_TYPE(create, "string");
1791 MODULE_PARM_DESC(create, "Create fcoe fcoe using net device passed in.");
1792 module_param_call(destroy, fcoe_destroy, NULL, NULL, S_IWUSR);
1793 __MODULE_PARM_TYPE(destroy, "string");
1794 MODULE_PARM_DESC(destroy, "Destroy fcoe fcoe");
1795
1796 /**
1797  * fcoe_link_ok() - Check if link is ok for the fc_lport
1798  * @lp: ptr to the fc_lport
1799  *
1800  * Any permanently-disqualifying conditions have been previously checked.
1801  * This also updates the speed setting, which may change with link for 100/1000.
1802  *
1803  * This function should probably be checking for PAUSE support at some point
1804  * in the future. Currently Per-priority-pause is not determinable using
1805  * ethtool, so we shouldn't be restrictive until that problem is resolved.
1806  *
1807  * Returns: 0 if link is OK for use by FCoE.
1808  *
1809  */
1810 int fcoe_link_ok(struct fc_lport *lp)
1811 {
1812         struct fcoe_port *port = lport_priv(lp);
1813         struct net_device *dev = port->fcoe->netdev;
1814         struct ethtool_cmd ecmd = { ETHTOOL_GSET };
1815
1816         if ((dev->flags & IFF_UP) && netif_carrier_ok(dev) &&
1817             (!dev_ethtool_get_settings(dev, &ecmd))) {
1818                 lp->link_supported_speeds &=
1819                         ~(FC_PORTSPEED_1GBIT | FC_PORTSPEED_10GBIT);
1820                 if (ecmd.supported & (SUPPORTED_1000baseT_Half |
1821                                       SUPPORTED_1000baseT_Full))
1822                         lp->link_supported_speeds |= FC_PORTSPEED_1GBIT;
1823                 if (ecmd.supported & SUPPORTED_10000baseT_Full)
1824                         lp->link_supported_speeds |=
1825                                 FC_PORTSPEED_10GBIT;
1826                 if (ecmd.speed == SPEED_1000)
1827                         lp->link_speed = FC_PORTSPEED_1GBIT;
1828                 if (ecmd.speed == SPEED_10000)
1829                         lp->link_speed = FC_PORTSPEED_10GBIT;
1830
1831                 return 0;
1832         }
1833         return -1;
1834 }
1835
1836 /**
1837  * fcoe_percpu_clean() - Clear the pending skbs for an lport
1838  * @lp: the fc_lport
1839  *
1840  * Must be called with fcoe_create_mutex held to single-thread completion.
1841  *
1842  * This flushes the pending skbs by adding a new skb to each queue and
1843  * waiting until they are all freed.  This assures us that not only are
1844  * there no packets that will be handled by the lport, but also that any
1845  * threads already handling packet have returned.
1846  */
1847 void fcoe_percpu_clean(struct fc_lport *lp)
1848 {
1849         struct fcoe_percpu_s *pp;
1850         struct fcoe_rcv_info *fr;
1851         struct sk_buff_head *list;
1852         struct sk_buff *skb, *next;
1853         struct sk_buff *head;
1854         unsigned int cpu;
1855
1856         for_each_possible_cpu(cpu) {
1857                 pp = &per_cpu(fcoe_percpu, cpu);
1858                 spin_lock_bh(&pp->fcoe_rx_list.lock);
1859                 list = &pp->fcoe_rx_list;
1860                 head = list->next;
1861                 for (skb = head; skb != (struct sk_buff *)list;
1862                      skb = next) {
1863                         next = skb->next;
1864                         fr = fcoe_dev_from_skb(skb);
1865                         if (fr->fr_dev == lp) {
1866                                 __skb_unlink(skb, list);
1867                                 kfree_skb(skb);
1868                         }
1869                 }
1870
1871                 if (!pp->thread || !cpu_online(cpu)) {
1872                         spin_unlock_bh(&pp->fcoe_rx_list.lock);
1873                         continue;
1874                 }
1875
1876                 skb = dev_alloc_skb(0);
1877                 if (!skb) {
1878                         spin_unlock_bh(&pp->fcoe_rx_list.lock);
1879                         continue;
1880                 }
1881                 skb->destructor = fcoe_percpu_flush_done;
1882
1883                 __skb_queue_tail(&pp->fcoe_rx_list, skb);
1884                 if (pp->fcoe_rx_list.qlen == 1)
1885                         wake_up_process(pp->thread);
1886                 spin_unlock_bh(&pp->fcoe_rx_list.lock);
1887
1888                 wait_for_completion(&fcoe_flush_completion);
1889         }
1890 }
1891
1892 /**
1893  * fcoe_clean_pending_queue() - Dequeue a skb and free it
1894  * @lp: the corresponding fc_lport
1895  *
1896  * Returns: none
1897  */
1898 void fcoe_clean_pending_queue(struct fc_lport *lp)
1899 {
1900         struct fcoe_port  *port = lport_priv(lp);
1901         struct sk_buff *skb;
1902
1903         spin_lock_bh(&port->fcoe_pending_queue.lock);
1904         while ((skb = __skb_dequeue(&port->fcoe_pending_queue)) != NULL) {
1905                 spin_unlock_bh(&port->fcoe_pending_queue.lock);
1906                 kfree_skb(skb);
1907                 spin_lock_bh(&port->fcoe_pending_queue.lock);
1908         }
1909         spin_unlock_bh(&port->fcoe_pending_queue.lock);
1910 }
1911
1912 /**
1913  * fcoe_reset() - Resets the fcoe
1914  * @shost: shost the reset is from
1915  *
1916  * Returns: always 0
1917  */
1918 int fcoe_reset(struct Scsi_Host *shost)
1919 {
1920         struct fc_lport *lport = shost_priv(shost);
1921         fc_lport_reset(lport);
1922         return 0;
1923 }
1924
1925 /**
1926  * fcoe_hostlist_lookup_port() - find the corresponding lport by a given device
1927  * @dev: this is currently ptr to net_device
1928  *
1929  * Returns: NULL or the located fcoe_port
1930  * Locking: must be called with the RNL mutex held
1931  */
1932 static struct fcoe_interface *
1933 fcoe_hostlist_lookup_port(const struct net_device *dev)
1934 {
1935         struct fcoe_interface *fcoe;
1936
1937         list_for_each_entry(fcoe, &fcoe_hostlist, list) {
1938                 if (fcoe->netdev == dev)
1939                         return fcoe;
1940         }
1941         return NULL;
1942 }
1943
1944 /**
1945  * fcoe_hostlist_lookup() - Find the corresponding lport by netdev
1946  * @netdev: ptr to net_device
1947  *
1948  * Returns: 0 for success
1949  * Locking: must be called with the RTNL mutex held
1950  */
1951 static struct fc_lport *fcoe_hostlist_lookup(const struct net_device *netdev)
1952 {
1953         struct fcoe_interface *fcoe;
1954
1955         fcoe = fcoe_hostlist_lookup_port(netdev);
1956         return (fcoe) ? fcoe->ctlr.lp : NULL;
1957 }
1958
1959 /**
1960  * fcoe_hostlist_add() - Add a lport to lports list
1961  * @lp: ptr to the fc_lport to be added
1962  *
1963  * Returns: 0 for success
1964  * Locking: must be called with the RTNL mutex held
1965  */
1966 static int fcoe_hostlist_add(const struct fc_lport *lport)
1967 {
1968         struct fcoe_interface *fcoe;
1969         struct fcoe_port *port;
1970
1971         fcoe = fcoe_hostlist_lookup_port(fcoe_netdev(lport));
1972         if (!fcoe) {
1973                 port = lport_priv(lport);
1974                 fcoe = port->fcoe;
1975                 list_add_tail(&fcoe->list, &fcoe_hostlist);
1976         }
1977         return 0;
1978 }
1979
1980 /**
1981  * fcoe_init() - fcoe module loading initialization
1982  *
1983  * Returns 0 on success, negative on failure
1984  */
1985 static int __init fcoe_init(void)
1986 {
1987         unsigned int cpu;
1988         int rc = 0;
1989         struct fcoe_percpu_s *p;
1990
1991         mutex_lock(&fcoe_config_mutex);
1992
1993         for_each_possible_cpu(cpu) {
1994                 p = &per_cpu(fcoe_percpu, cpu);
1995                 skb_queue_head_init(&p->fcoe_rx_list);
1996         }
1997
1998         for_each_online_cpu(cpu)
1999                 fcoe_percpu_thread_create(cpu);
2000
2001         /* Initialize per CPU interrupt thread */
2002         rc = register_hotcpu_notifier(&fcoe_cpu_notifier);
2003         if (rc)
2004                 goto out_free;
2005
2006         /* Setup link change notification */
2007         fcoe_dev_setup();
2008
2009         rc = fcoe_if_init();
2010         if (rc)
2011                 goto out_free;
2012
2013         mutex_unlock(&fcoe_config_mutex);
2014         return 0;
2015
2016 out_free:
2017         for_each_online_cpu(cpu) {
2018                 fcoe_percpu_thread_destroy(cpu);
2019         }
2020         mutex_unlock(&fcoe_config_mutex);
2021         return rc;
2022 }
2023 module_init(fcoe_init);
2024
2025 /**
2026  * fcoe_exit() - fcoe module unloading cleanup
2027  *
2028  * Returns 0 on success, negative on failure
2029  */
2030 static void __exit fcoe_exit(void)
2031 {
2032         unsigned int cpu;
2033         struct fcoe_interface *fcoe, *tmp;
2034         struct fcoe_port *port;
2035
2036         mutex_lock(&fcoe_config_mutex);
2037
2038         fcoe_dev_cleanup();
2039
2040         /* releases the associated fcoe hosts */
2041         rtnl_lock();
2042         list_for_each_entry_safe(fcoe, tmp, &fcoe_hostlist, list) {
2043                 list_del(&fcoe->list);
2044                 port = lport_priv(fcoe->ctlr.lp);
2045                 fcoe_interface_cleanup(fcoe);
2046                 schedule_work(&port->destroy_work);
2047         }
2048         rtnl_unlock();
2049
2050         unregister_hotcpu_notifier(&fcoe_cpu_notifier);
2051
2052         for_each_online_cpu(cpu)
2053                 fcoe_percpu_thread_destroy(cpu);
2054
2055         mutex_unlock(&fcoe_config_mutex);
2056
2057         /* flush any asyncronous interface destroys,
2058          * this should happen after the netdev notifier is unregistered */
2059         flush_scheduled_work();
2060
2061         /* detach from scsi transport
2062          * must happen after all destroys are done, therefor after the flush */
2063         fcoe_if_exit();
2064 }
2065 module_exit(fcoe_exit);