[SCSI] ipr: Faster sg list fetch
[safe/jmp/linux-2.6] / drivers / scsi / ipr.c
1 /*
2  * ipr.c -- driver for IBM Power Linux RAID adapters
3  *
4  * Written By: Brian King <brking@us.ibm.com>, IBM Corporation
5  *
6  * Copyright (C) 2003, 2004 IBM Corporation
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License as published by
10  * the Free Software Foundation; either version 2 of the License, or
11  * (at your option) any later version.
12  *
13  * This program is distributed in the hope that it will be useful,
14  * but WITHOUT ANY WARRANTY; without even the implied warranty of
15  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16  * GNU General Public License for more details.
17  *
18  * You should have received a copy of the GNU General Public License
19  * along with this program; if not, write to the Free Software
20  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
21  *
22  */
23
24 /*
25  * Notes:
26  *
27  * This driver is used to control the following SCSI adapters:
28  *
29  * IBM iSeries: 5702, 5703, 2780, 5709, 570A, 570B
30  *
31  * IBM pSeries: PCI-X Dual Channel Ultra 320 SCSI RAID Adapter
32  *              PCI-X Dual Channel Ultra 320 SCSI Adapter
33  *              PCI-X Dual Channel Ultra 320 SCSI RAID Enablement Card
34  *              Embedded SCSI adapter on p615 and p655 systems
35  *
36  * Supported Hardware Features:
37  *      - Ultra 320 SCSI controller
38  *      - PCI-X host interface
39  *      - Embedded PowerPC RISC Processor and Hardware XOR DMA Engine
40  *      - Non-Volatile Write Cache
41  *      - Supports attachment of non-RAID disks, tape, and optical devices
42  *      - RAID Levels 0, 5, 10
43  *      - Hot spare
44  *      - Background Parity Checking
45  *      - Background Data Scrubbing
46  *      - Ability to increase the capacity of an existing RAID 5 disk array
47  *              by adding disks
48  *
49  * Driver Features:
50  *      - Tagged command queuing
51  *      - Adapter microcode download
52  *      - PCI hot plug
53  *      - SCSI device hot plug
54  *
55  */
56
57 #include <linux/fs.h>
58 #include <linux/init.h>
59 #include <linux/types.h>
60 #include <linux/errno.h>
61 #include <linux/kernel.h>
62 #include <linux/ioport.h>
63 #include <linux/delay.h>
64 #include <linux/pci.h>
65 #include <linux/wait.h>
66 #include <linux/spinlock.h>
67 #include <linux/sched.h>
68 #include <linux/interrupt.h>
69 #include <linux/blkdev.h>
70 #include <linux/firmware.h>
71 #include <linux/module.h>
72 #include <linux/moduleparam.h>
73 #include <linux/libata.h>
74 #include <asm/io.h>
75 #include <asm/irq.h>
76 #include <asm/processor.h>
77 #include <scsi/scsi.h>
78 #include <scsi/scsi_host.h>
79 #include <scsi/scsi_tcq.h>
80 #include <scsi/scsi_eh.h>
81 #include <scsi/scsi_cmnd.h>
82 #include "ipr.h"
83
84 /*
85  *   Global Data
86  */
87 static struct list_head ipr_ioa_head = LIST_HEAD_INIT(ipr_ioa_head);
88 static unsigned int ipr_log_level = IPR_DEFAULT_LOG_LEVEL;
89 static unsigned int ipr_max_speed = 1;
90 static int ipr_testmode = 0;
91 static unsigned int ipr_fastfail = 0;
92 static unsigned int ipr_transop_timeout = 0;
93 static unsigned int ipr_enable_cache = 1;
94 static unsigned int ipr_debug = 0;
95 static DEFINE_SPINLOCK(ipr_driver_lock);
96
97 /* This table describes the differences between DMA controller chips */
98 static const struct ipr_chip_cfg_t ipr_chip_cfg[] = {
99         { /* Gemstone, Citrine, Obsidian, and Obsidian-E */
100                 .mailbox = 0x0042C,
101                 .cache_line_size = 0x20,
102                 {
103                         .set_interrupt_mask_reg = 0x0022C,
104                         .clr_interrupt_mask_reg = 0x00230,
105                         .sense_interrupt_mask_reg = 0x0022C,
106                         .clr_interrupt_reg = 0x00228,
107                         .sense_interrupt_reg = 0x00224,
108                         .ioarrin_reg = 0x00404,
109                         .sense_uproc_interrupt_reg = 0x00214,
110                         .set_uproc_interrupt_reg = 0x00214,
111                         .clr_uproc_interrupt_reg = 0x00218
112                 }
113         },
114         { /* Snipe and Scamp */
115                 .mailbox = 0x0052C,
116                 .cache_line_size = 0x20,
117                 {
118                         .set_interrupt_mask_reg = 0x00288,
119                         .clr_interrupt_mask_reg = 0x0028C,
120                         .sense_interrupt_mask_reg = 0x00288,
121                         .clr_interrupt_reg = 0x00284,
122                         .sense_interrupt_reg = 0x00280,
123                         .ioarrin_reg = 0x00504,
124                         .sense_uproc_interrupt_reg = 0x00290,
125                         .set_uproc_interrupt_reg = 0x00290,
126                         .clr_uproc_interrupt_reg = 0x00294
127                 }
128         },
129 };
130
131 static const struct ipr_chip_t ipr_chip[] = {
132         { PCI_VENDOR_ID_MYLEX, PCI_DEVICE_ID_IBM_GEMSTONE, &ipr_chip_cfg[0] },
133         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_CITRINE, &ipr_chip_cfg[0] },
134         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_OBSIDIAN, &ipr_chip_cfg[0] },
135         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN, &ipr_chip_cfg[0] },
136         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN_E, &ipr_chip_cfg[0] },
137         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_SNIPE, &ipr_chip_cfg[1] },
138         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_SCAMP, &ipr_chip_cfg[1] }
139 };
140
141 static int ipr_max_bus_speeds [] = {
142         IPR_80MBs_SCSI_RATE, IPR_U160_SCSI_RATE, IPR_U320_SCSI_RATE
143 };
144
145 MODULE_AUTHOR("Brian King <brking@us.ibm.com>");
146 MODULE_DESCRIPTION("IBM Power RAID SCSI Adapter Driver");
147 module_param_named(max_speed, ipr_max_speed, uint, 0);
148 MODULE_PARM_DESC(max_speed, "Maximum bus speed (0-2). Default: 1=U160. Speeds: 0=80 MB/s, 1=U160, 2=U320");
149 module_param_named(log_level, ipr_log_level, uint, 0);
150 MODULE_PARM_DESC(log_level, "Set to 0 - 4 for increasing verbosity of device driver");
151 module_param_named(testmode, ipr_testmode, int, 0);
152 MODULE_PARM_DESC(testmode, "DANGEROUS!!! Allows unsupported configurations");
153 module_param_named(fastfail, ipr_fastfail, int, 0);
154 MODULE_PARM_DESC(fastfail, "Reduce timeouts and retries");
155 module_param_named(transop_timeout, ipr_transop_timeout, int, 0);
156 MODULE_PARM_DESC(transop_timeout, "Time in seconds to wait for adapter to come operational (default: 300)");
157 module_param_named(enable_cache, ipr_enable_cache, int, 0);
158 MODULE_PARM_DESC(enable_cache, "Enable adapter's non-volatile write cache (default: 1)");
159 module_param_named(debug, ipr_debug, int, 0);
160 MODULE_PARM_DESC(debug, "Enable device driver debugging logging. Set to 1 to enable. (default: 0)");
161 MODULE_LICENSE("GPL");
162 MODULE_VERSION(IPR_DRIVER_VERSION);
163
164 /*  A constant array of IOASCs/URCs/Error Messages */
165 static const
166 struct ipr_error_table_t ipr_error_table[] = {
167         {0x00000000, 1, IPR_DEFAULT_LOG_LEVEL,
168         "8155: An unknown error was received"},
169         {0x00330000, 0, 0,
170         "Soft underlength error"},
171         {0x005A0000, 0, 0,
172         "Command to be cancelled not found"},
173         {0x00808000, 0, 0,
174         "Qualified success"},
175         {0x01080000, 1, IPR_DEFAULT_LOG_LEVEL,
176         "FFFE: Soft device bus error recovered by the IOA"},
177         {0x01088100, 0, IPR_DEFAULT_LOG_LEVEL,
178         "4101: Soft device bus fabric error"},
179         {0x01170600, 0, IPR_DEFAULT_LOG_LEVEL,
180         "FFF9: Device sector reassign successful"},
181         {0x01170900, 0, IPR_DEFAULT_LOG_LEVEL,
182         "FFF7: Media error recovered by device rewrite procedures"},
183         {0x01180200, 0, IPR_DEFAULT_LOG_LEVEL,
184         "7001: IOA sector reassignment successful"},
185         {0x01180500, 0, IPR_DEFAULT_LOG_LEVEL,
186         "FFF9: Soft media error. Sector reassignment recommended"},
187         {0x01180600, 0, IPR_DEFAULT_LOG_LEVEL,
188         "FFF7: Media error recovered by IOA rewrite procedures"},
189         {0x01418000, 0, IPR_DEFAULT_LOG_LEVEL,
190         "FF3D: Soft PCI bus error recovered by the IOA"},
191         {0x01440000, 1, IPR_DEFAULT_LOG_LEVEL,
192         "FFF6: Device hardware error recovered by the IOA"},
193         {0x01448100, 0, IPR_DEFAULT_LOG_LEVEL,
194         "FFF6: Device hardware error recovered by the device"},
195         {0x01448200, 1, IPR_DEFAULT_LOG_LEVEL,
196         "FF3D: Soft IOA error recovered by the IOA"},
197         {0x01448300, 0, IPR_DEFAULT_LOG_LEVEL,
198         "FFFA: Undefined device response recovered by the IOA"},
199         {0x014A0000, 1, IPR_DEFAULT_LOG_LEVEL,
200         "FFF6: Device bus error, message or command phase"},
201         {0x014A8000, 0, IPR_DEFAULT_LOG_LEVEL,
202         "FFFE: Task Management Function failed"},
203         {0x015D0000, 0, IPR_DEFAULT_LOG_LEVEL,
204         "FFF6: Failure prediction threshold exceeded"},
205         {0x015D9200, 0, IPR_DEFAULT_LOG_LEVEL,
206         "8009: Impending cache battery pack failure"},
207         {0x02040400, 0, 0,
208         "34FF: Disk device format in progress"},
209         {0x023F0000, 0, 0,
210         "Synchronization required"},
211         {0x024E0000, 0, 0,
212         "No ready, IOA shutdown"},
213         {0x025A0000, 0, 0,
214         "Not ready, IOA has been shutdown"},
215         {0x02670100, 0, IPR_DEFAULT_LOG_LEVEL,
216         "3020: Storage subsystem configuration error"},
217         {0x03110B00, 0, 0,
218         "FFF5: Medium error, data unreadable, recommend reassign"},
219         {0x03110C00, 0, 0,
220         "7000: Medium error, data unreadable, do not reassign"},
221         {0x03310000, 0, IPR_DEFAULT_LOG_LEVEL,
222         "FFF3: Disk media format bad"},
223         {0x04050000, 0, IPR_DEFAULT_LOG_LEVEL,
224         "3002: Addressed device failed to respond to selection"},
225         {0x04080000, 1, IPR_DEFAULT_LOG_LEVEL,
226         "3100: Device bus error"},
227         {0x04080100, 0, IPR_DEFAULT_LOG_LEVEL,
228         "3109: IOA timed out a device command"},
229         {0x04088000, 0, 0,
230         "3120: SCSI bus is not operational"},
231         {0x04088100, 0, IPR_DEFAULT_LOG_LEVEL,
232         "4100: Hard device bus fabric error"},
233         {0x04118000, 0, IPR_DEFAULT_LOG_LEVEL,
234         "9000: IOA reserved area data check"},
235         {0x04118100, 0, IPR_DEFAULT_LOG_LEVEL,
236         "9001: IOA reserved area invalid data pattern"},
237         {0x04118200, 0, IPR_DEFAULT_LOG_LEVEL,
238         "9002: IOA reserved area LRC error"},
239         {0x04320000, 0, IPR_DEFAULT_LOG_LEVEL,
240         "102E: Out of alternate sectors for disk storage"},
241         {0x04330000, 1, IPR_DEFAULT_LOG_LEVEL,
242         "FFF4: Data transfer underlength error"},
243         {0x04338000, 1, IPR_DEFAULT_LOG_LEVEL,
244         "FFF4: Data transfer overlength error"},
245         {0x043E0100, 0, IPR_DEFAULT_LOG_LEVEL,
246         "3400: Logical unit failure"},
247         {0x04408500, 0, IPR_DEFAULT_LOG_LEVEL,
248         "FFF4: Device microcode is corrupt"},
249         {0x04418000, 1, IPR_DEFAULT_LOG_LEVEL,
250         "8150: PCI bus error"},
251         {0x04430000, 1, 0,
252         "Unsupported device bus message received"},
253         {0x04440000, 1, IPR_DEFAULT_LOG_LEVEL,
254         "FFF4: Disk device problem"},
255         {0x04448200, 1, IPR_DEFAULT_LOG_LEVEL,
256         "8150: Permanent IOA failure"},
257         {0x04448300, 0, IPR_DEFAULT_LOG_LEVEL,
258         "3010: Disk device returned wrong response to IOA"},
259         {0x04448400, 0, IPR_DEFAULT_LOG_LEVEL,
260         "8151: IOA microcode error"},
261         {0x04448500, 0, 0,
262         "Device bus status error"},
263         {0x04448600, 0, IPR_DEFAULT_LOG_LEVEL,
264         "8157: IOA error requiring IOA reset to recover"},
265         {0x04448700, 0, 0,
266         "ATA device status error"},
267         {0x04490000, 0, 0,
268         "Message reject received from the device"},
269         {0x04449200, 0, IPR_DEFAULT_LOG_LEVEL,
270         "8008: A permanent cache battery pack failure occurred"},
271         {0x0444A000, 0, IPR_DEFAULT_LOG_LEVEL,
272         "9090: Disk unit has been modified after the last known status"},
273         {0x0444A200, 0, IPR_DEFAULT_LOG_LEVEL,
274         "9081: IOA detected device error"},
275         {0x0444A300, 0, IPR_DEFAULT_LOG_LEVEL,
276         "9082: IOA detected device error"},
277         {0x044A0000, 1, IPR_DEFAULT_LOG_LEVEL,
278         "3110: Device bus error, message or command phase"},
279         {0x044A8000, 1, IPR_DEFAULT_LOG_LEVEL,
280         "3110: SAS Command / Task Management Function failed"},
281         {0x04670400, 0, IPR_DEFAULT_LOG_LEVEL,
282         "9091: Incorrect hardware configuration change has been detected"},
283         {0x04678000, 0, IPR_DEFAULT_LOG_LEVEL,
284         "9073: Invalid multi-adapter configuration"},
285         {0x04678100, 0, IPR_DEFAULT_LOG_LEVEL,
286         "4010: Incorrect connection between cascaded expanders"},
287         {0x04678200, 0, IPR_DEFAULT_LOG_LEVEL,
288         "4020: Connections exceed IOA design limits"},
289         {0x04678300, 0, IPR_DEFAULT_LOG_LEVEL,
290         "4030: Incorrect multipath connection"},
291         {0x04679000, 0, IPR_DEFAULT_LOG_LEVEL,
292         "4110: Unsupported enclosure function"},
293         {0x046E0000, 0, IPR_DEFAULT_LOG_LEVEL,
294         "FFF4: Command to logical unit failed"},
295         {0x05240000, 1, 0,
296         "Illegal request, invalid request type or request packet"},
297         {0x05250000, 0, 0,
298         "Illegal request, invalid resource handle"},
299         {0x05258000, 0, 0,
300         "Illegal request, commands not allowed to this device"},
301         {0x05258100, 0, 0,
302         "Illegal request, command not allowed to a secondary adapter"},
303         {0x05260000, 0, 0,
304         "Illegal request, invalid field in parameter list"},
305         {0x05260100, 0, 0,
306         "Illegal request, parameter not supported"},
307         {0x05260200, 0, 0,
308         "Illegal request, parameter value invalid"},
309         {0x052C0000, 0, 0,
310         "Illegal request, command sequence error"},
311         {0x052C8000, 1, 0,
312         "Illegal request, dual adapter support not enabled"},
313         {0x06040500, 0, IPR_DEFAULT_LOG_LEVEL,
314         "9031: Array protection temporarily suspended, protection resuming"},
315         {0x06040600, 0, IPR_DEFAULT_LOG_LEVEL,
316         "9040: Array protection temporarily suspended, protection resuming"},
317         {0x06288000, 0, IPR_DEFAULT_LOG_LEVEL,
318         "3140: Device bus not ready to ready transition"},
319         {0x06290000, 0, IPR_DEFAULT_LOG_LEVEL,
320         "FFFB: SCSI bus was reset"},
321         {0x06290500, 0, 0,
322         "FFFE: SCSI bus transition to single ended"},
323         {0x06290600, 0, 0,
324         "FFFE: SCSI bus transition to LVD"},
325         {0x06298000, 0, IPR_DEFAULT_LOG_LEVEL,
326         "FFFB: SCSI bus was reset by another initiator"},
327         {0x063F0300, 0, IPR_DEFAULT_LOG_LEVEL,
328         "3029: A device replacement has occurred"},
329         {0x064C8000, 0, IPR_DEFAULT_LOG_LEVEL,
330         "9051: IOA cache data exists for a missing or failed device"},
331         {0x064C8100, 0, IPR_DEFAULT_LOG_LEVEL,
332         "9055: Auxiliary cache IOA contains cache data needed by the primary IOA"},
333         {0x06670100, 0, IPR_DEFAULT_LOG_LEVEL,
334         "9025: Disk unit is not supported at its physical location"},
335         {0x06670600, 0, IPR_DEFAULT_LOG_LEVEL,
336         "3020: IOA detected a SCSI bus configuration error"},
337         {0x06678000, 0, IPR_DEFAULT_LOG_LEVEL,
338         "3150: SCSI bus configuration error"},
339         {0x06678100, 0, IPR_DEFAULT_LOG_LEVEL,
340         "9074: Asymmetric advanced function disk configuration"},
341         {0x06678300, 0, IPR_DEFAULT_LOG_LEVEL,
342         "4040: Incomplete multipath connection between IOA and enclosure"},
343         {0x06678400, 0, IPR_DEFAULT_LOG_LEVEL,
344         "4041: Incomplete multipath connection between enclosure and device"},
345         {0x06678500, 0, IPR_DEFAULT_LOG_LEVEL,
346         "9075: Incomplete multipath connection between IOA and remote IOA"},
347         {0x06678600, 0, IPR_DEFAULT_LOG_LEVEL,
348         "9076: Configuration error, missing remote IOA"},
349         {0x06679100, 0, IPR_DEFAULT_LOG_LEVEL,
350         "4050: Enclosure does not support a required multipath function"},
351         {0x06690200, 0, IPR_DEFAULT_LOG_LEVEL,
352         "9041: Array protection temporarily suspended"},
353         {0x06698200, 0, IPR_DEFAULT_LOG_LEVEL,
354         "9042: Corrupt array parity detected on specified device"},
355         {0x066B0200, 0, IPR_DEFAULT_LOG_LEVEL,
356         "9030: Array no longer protected due to missing or failed disk unit"},
357         {0x066B8000, 0, IPR_DEFAULT_LOG_LEVEL,
358         "9071: Link operational transition"},
359         {0x066B8100, 0, IPR_DEFAULT_LOG_LEVEL,
360         "9072: Link not operational transition"},
361         {0x066B8200, 0, IPR_DEFAULT_LOG_LEVEL,
362         "9032: Array exposed but still protected"},
363         {0x066B8300, 0, IPR_DEFAULT_LOG_LEVEL + 1,
364         "70DD: Device forced failed by disrupt device command"},
365         {0x066B9100, 0, IPR_DEFAULT_LOG_LEVEL,
366         "4061: Multipath redundancy level got better"},
367         {0x066B9200, 0, IPR_DEFAULT_LOG_LEVEL,
368         "4060: Multipath redundancy level got worse"},
369         {0x07270000, 0, 0,
370         "Failure due to other device"},
371         {0x07278000, 0, IPR_DEFAULT_LOG_LEVEL,
372         "9008: IOA does not support functions expected by devices"},
373         {0x07278100, 0, IPR_DEFAULT_LOG_LEVEL,
374         "9010: Cache data associated with attached devices cannot be found"},
375         {0x07278200, 0, IPR_DEFAULT_LOG_LEVEL,
376         "9011: Cache data belongs to devices other than those attached"},
377         {0x07278400, 0, IPR_DEFAULT_LOG_LEVEL,
378         "9020: Array missing 2 or more devices with only 1 device present"},
379         {0x07278500, 0, IPR_DEFAULT_LOG_LEVEL,
380         "9021: Array missing 2 or more devices with 2 or more devices present"},
381         {0x07278600, 0, IPR_DEFAULT_LOG_LEVEL,
382         "9022: Exposed array is missing a required device"},
383         {0x07278700, 0, IPR_DEFAULT_LOG_LEVEL,
384         "9023: Array member(s) not at required physical locations"},
385         {0x07278800, 0, IPR_DEFAULT_LOG_LEVEL,
386         "9024: Array not functional due to present hardware configuration"},
387         {0x07278900, 0, IPR_DEFAULT_LOG_LEVEL,
388         "9026: Array not functional due to present hardware configuration"},
389         {0x07278A00, 0, IPR_DEFAULT_LOG_LEVEL,
390         "9027: Array is missing a device and parity is out of sync"},
391         {0x07278B00, 0, IPR_DEFAULT_LOG_LEVEL,
392         "9028: Maximum number of arrays already exist"},
393         {0x07278C00, 0, IPR_DEFAULT_LOG_LEVEL,
394         "9050: Required cache data cannot be located for a disk unit"},
395         {0x07278D00, 0, IPR_DEFAULT_LOG_LEVEL,
396         "9052: Cache data exists for a device that has been modified"},
397         {0x07278F00, 0, IPR_DEFAULT_LOG_LEVEL,
398         "9054: IOA resources not available due to previous problems"},
399         {0x07279100, 0, IPR_DEFAULT_LOG_LEVEL,
400         "9092: Disk unit requires initialization before use"},
401         {0x07279200, 0, IPR_DEFAULT_LOG_LEVEL,
402         "9029: Incorrect hardware configuration change has been detected"},
403         {0x07279600, 0, IPR_DEFAULT_LOG_LEVEL,
404         "9060: One or more disk pairs are missing from an array"},
405         {0x07279700, 0, IPR_DEFAULT_LOG_LEVEL,
406         "9061: One or more disks are missing from an array"},
407         {0x07279800, 0, IPR_DEFAULT_LOG_LEVEL,
408         "9062: One or more disks are missing from an array"},
409         {0x07279900, 0, IPR_DEFAULT_LOG_LEVEL,
410         "9063: Maximum number of functional arrays has been exceeded"},
411         {0x0B260000, 0, 0,
412         "Aborted command, invalid descriptor"},
413         {0x0B5A0000, 0, 0,
414         "Command terminated by host"}
415 };
416
417 static const struct ipr_ses_table_entry ipr_ses_table[] = {
418         { "2104-DL1        ", "XXXXXXXXXXXXXXXX", 80 },
419         { "2104-TL1        ", "XXXXXXXXXXXXXXXX", 80 },
420         { "HSBP07M P U2SCSI", "XXXXXXXXXXXXXXXX", 80 }, /* Hidive 7 slot */
421         { "HSBP05M P U2SCSI", "XXXXXXXXXXXXXXXX", 80 }, /* Hidive 5 slot */
422         { "HSBP05M S U2SCSI", "XXXXXXXXXXXXXXXX", 80 }, /* Bowtie */
423         { "HSBP06E ASU2SCSI", "XXXXXXXXXXXXXXXX", 80 }, /* MartinFenning */
424         { "2104-DU3        ", "XXXXXXXXXXXXXXXX", 160 },
425         { "2104-TU3        ", "XXXXXXXXXXXXXXXX", 160 },
426         { "HSBP04C RSU2SCSI", "XXXXXXX*XXXXXXXX", 160 },
427         { "HSBP06E RSU2SCSI", "XXXXXXX*XXXXXXXX", 160 },
428         { "St  V1S2        ", "XXXXXXXXXXXXXXXX", 160 },
429         { "HSBPD4M  PU3SCSI", "XXXXXXX*XXXXXXXX", 160 },
430         { "VSBPD1H   U3SCSI", "XXXXXXX*XXXXXXXX", 160 }
431 };
432
433 /*
434  *  Function Prototypes
435  */
436 static int ipr_reset_alert(struct ipr_cmnd *);
437 static void ipr_process_ccn(struct ipr_cmnd *);
438 static void ipr_process_error(struct ipr_cmnd *);
439 static void ipr_reset_ioa_job(struct ipr_cmnd *);
440 static void ipr_initiate_ioa_reset(struct ipr_ioa_cfg *,
441                                    enum ipr_shutdown_type);
442
443 #ifdef CONFIG_SCSI_IPR_TRACE
444 /**
445  * ipr_trc_hook - Add a trace entry to the driver trace
446  * @ipr_cmd:    ipr command struct
447  * @type:               trace type
448  * @add_data:   additional data
449  *
450  * Return value:
451  *      none
452  **/
453 static void ipr_trc_hook(struct ipr_cmnd *ipr_cmd,
454                          u8 type, u32 add_data)
455 {
456         struct ipr_trace_entry *trace_entry;
457         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
458
459         trace_entry = &ioa_cfg->trace[ioa_cfg->trace_index++];
460         trace_entry->time = jiffies;
461         trace_entry->op_code = ipr_cmd->ioarcb.cmd_pkt.cdb[0];
462         trace_entry->type = type;
463         trace_entry->ata_op_code = ipr_cmd->ioarcb.add_data.u.regs.command;
464         trace_entry->cmd_index = ipr_cmd->cmd_index & 0xff;
465         trace_entry->res_handle = ipr_cmd->ioarcb.res_handle;
466         trace_entry->u.add_data = add_data;
467 }
468 #else
469 #define ipr_trc_hook(ipr_cmd, type, add_data) do { } while(0)
470 #endif
471
472 /**
473  * ipr_reinit_ipr_cmnd - Re-initialize an IPR Cmnd block for reuse
474  * @ipr_cmd:    ipr command struct
475  *
476  * Return value:
477  *      none
478  **/
479 static void ipr_reinit_ipr_cmnd(struct ipr_cmnd *ipr_cmd)
480 {
481         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
482         struct ipr_ioasa *ioasa = &ipr_cmd->ioasa;
483         dma_addr_t dma_addr = be32_to_cpu(ioarcb->ioarcb_host_pci_addr);
484
485         memset(&ioarcb->cmd_pkt, 0, sizeof(struct ipr_cmd_pkt));
486         ioarcb->write_data_transfer_length = 0;
487         ioarcb->read_data_transfer_length = 0;
488         ioarcb->write_ioadl_len = 0;
489         ioarcb->read_ioadl_len = 0;
490         ioarcb->write_ioadl_addr =
491                 cpu_to_be32(dma_addr + offsetof(struct ipr_cmnd, ioadl));
492         ioarcb->read_ioadl_addr = ioarcb->write_ioadl_addr;
493         ioasa->ioasc = 0;
494         ioasa->residual_data_len = 0;
495         ioasa->u.gata.status = 0;
496
497         ipr_cmd->scsi_cmd = NULL;
498         ipr_cmd->qc = NULL;
499         ipr_cmd->sense_buffer[0] = 0;
500         ipr_cmd->dma_use_sg = 0;
501 }
502
503 /**
504  * ipr_init_ipr_cmnd - Initialize an IPR Cmnd block
505  * @ipr_cmd:    ipr command struct
506  *
507  * Return value:
508  *      none
509  **/
510 static void ipr_init_ipr_cmnd(struct ipr_cmnd *ipr_cmd)
511 {
512         ipr_reinit_ipr_cmnd(ipr_cmd);
513         ipr_cmd->u.scratch = 0;
514         ipr_cmd->sibling = NULL;
515         init_timer(&ipr_cmd->timer);
516 }
517
518 /**
519  * ipr_get_free_ipr_cmnd - Get a free IPR Cmnd block
520  * @ioa_cfg:    ioa config struct
521  *
522  * Return value:
523  *      pointer to ipr command struct
524  **/
525 static
526 struct ipr_cmnd *ipr_get_free_ipr_cmnd(struct ipr_ioa_cfg *ioa_cfg)
527 {
528         struct ipr_cmnd *ipr_cmd;
529
530         ipr_cmd = list_entry(ioa_cfg->free_q.next, struct ipr_cmnd, queue);
531         list_del(&ipr_cmd->queue);
532         ipr_init_ipr_cmnd(ipr_cmd);
533
534         return ipr_cmd;
535 }
536
537 /**
538  * ipr_unmap_sglist - Unmap scatterlist if mapped
539  * @ioa_cfg:    ioa config struct
540  * @ipr_cmd:    ipr command struct
541  *
542  * Return value:
543  *      nothing
544  **/
545 static void ipr_unmap_sglist(struct ipr_ioa_cfg *ioa_cfg,
546                              struct ipr_cmnd *ipr_cmd)
547 {
548         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
549
550         if (ipr_cmd->dma_use_sg) {
551                 if (scsi_cmd->use_sg > 0) {
552                         pci_unmap_sg(ioa_cfg->pdev, scsi_cmd->request_buffer,
553                                      scsi_cmd->use_sg,
554                                      scsi_cmd->sc_data_direction);
555                 } else {
556                         pci_unmap_single(ioa_cfg->pdev, ipr_cmd->dma_handle,
557                                          scsi_cmd->request_bufflen,
558                                          scsi_cmd->sc_data_direction);
559                 }
560         }
561 }
562
563 /**
564  * ipr_mask_and_clear_interrupts - Mask all and clear specified interrupts
565  * @ioa_cfg:    ioa config struct
566  * @clr_ints:     interrupts to clear
567  *
568  * This function masks all interrupts on the adapter, then clears the
569  * interrupts specified in the mask
570  *
571  * Return value:
572  *      none
573  **/
574 static void ipr_mask_and_clear_interrupts(struct ipr_ioa_cfg *ioa_cfg,
575                                           u32 clr_ints)
576 {
577         volatile u32 int_reg;
578
579         /* Stop new interrupts */
580         ioa_cfg->allow_interrupts = 0;
581
582         /* Set interrupt mask to stop all new interrupts */
583         writel(~0, ioa_cfg->regs.set_interrupt_mask_reg);
584
585         /* Clear any pending interrupts */
586         writel(clr_ints, ioa_cfg->regs.clr_interrupt_reg);
587         int_reg = readl(ioa_cfg->regs.sense_interrupt_reg);
588 }
589
590 /**
591  * ipr_save_pcix_cmd_reg - Save PCI-X command register
592  * @ioa_cfg:    ioa config struct
593  *
594  * Return value:
595  *      0 on success / -EIO on failure
596  **/
597 static int ipr_save_pcix_cmd_reg(struct ipr_ioa_cfg *ioa_cfg)
598 {
599         int pcix_cmd_reg = pci_find_capability(ioa_cfg->pdev, PCI_CAP_ID_PCIX);
600
601         if (pcix_cmd_reg == 0)
602                 return 0;
603
604         if (pci_read_config_word(ioa_cfg->pdev, pcix_cmd_reg + PCI_X_CMD,
605                                  &ioa_cfg->saved_pcix_cmd_reg) != PCIBIOS_SUCCESSFUL) {
606                 dev_err(&ioa_cfg->pdev->dev, "Failed to save PCI-X command register\n");
607                 return -EIO;
608         }
609
610         ioa_cfg->saved_pcix_cmd_reg |= PCI_X_CMD_DPERR_E | PCI_X_CMD_ERO;
611         return 0;
612 }
613
614 /**
615  * ipr_set_pcix_cmd_reg - Setup PCI-X command register
616  * @ioa_cfg:    ioa config struct
617  *
618  * Return value:
619  *      0 on success / -EIO on failure
620  **/
621 static int ipr_set_pcix_cmd_reg(struct ipr_ioa_cfg *ioa_cfg)
622 {
623         int pcix_cmd_reg = pci_find_capability(ioa_cfg->pdev, PCI_CAP_ID_PCIX);
624
625         if (pcix_cmd_reg) {
626                 if (pci_write_config_word(ioa_cfg->pdev, pcix_cmd_reg + PCI_X_CMD,
627                                           ioa_cfg->saved_pcix_cmd_reg) != PCIBIOS_SUCCESSFUL) {
628                         dev_err(&ioa_cfg->pdev->dev, "Failed to setup PCI-X command register\n");
629                         return -EIO;
630                 }
631         }
632
633         return 0;
634 }
635
636 /**
637  * ipr_sata_eh_done - done function for aborted SATA commands
638  * @ipr_cmd:    ipr command struct
639  *
640  * This function is invoked for ops generated to SATA
641  * devices which are being aborted.
642  *
643  * Return value:
644  *      none
645  **/
646 static void ipr_sata_eh_done(struct ipr_cmnd *ipr_cmd)
647 {
648         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
649         struct ata_queued_cmd *qc = ipr_cmd->qc;
650         struct ipr_sata_port *sata_port = qc->ap->private_data;
651
652         qc->err_mask |= AC_ERR_OTHER;
653         sata_port->ioasa.status |= ATA_BUSY;
654         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
655         ata_qc_complete(qc);
656 }
657
658 /**
659  * ipr_scsi_eh_done - mid-layer done function for aborted ops
660  * @ipr_cmd:    ipr command struct
661  *
662  * This function is invoked by the interrupt handler for
663  * ops generated by the SCSI mid-layer which are being aborted.
664  *
665  * Return value:
666  *      none
667  **/
668 static void ipr_scsi_eh_done(struct ipr_cmnd *ipr_cmd)
669 {
670         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
671         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
672
673         scsi_cmd->result |= (DID_ERROR << 16);
674
675         ipr_unmap_sglist(ioa_cfg, ipr_cmd);
676         scsi_cmd->scsi_done(scsi_cmd);
677         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
678 }
679
680 /**
681  * ipr_fail_all_ops - Fails all outstanding ops.
682  * @ioa_cfg:    ioa config struct
683  *
684  * This function fails all outstanding ops.
685  *
686  * Return value:
687  *      none
688  **/
689 static void ipr_fail_all_ops(struct ipr_ioa_cfg *ioa_cfg)
690 {
691         struct ipr_cmnd *ipr_cmd, *temp;
692
693         ENTER;
694         list_for_each_entry_safe(ipr_cmd, temp, &ioa_cfg->pending_q, queue) {
695                 list_del(&ipr_cmd->queue);
696
697                 ipr_cmd->ioasa.ioasc = cpu_to_be32(IPR_IOASC_IOA_WAS_RESET);
698                 ipr_cmd->ioasa.ilid = cpu_to_be32(IPR_DRIVER_ILID);
699
700                 if (ipr_cmd->scsi_cmd)
701                         ipr_cmd->done = ipr_scsi_eh_done;
702                 else if (ipr_cmd->qc)
703                         ipr_cmd->done = ipr_sata_eh_done;
704
705                 ipr_trc_hook(ipr_cmd, IPR_TRACE_FINISH, IPR_IOASC_IOA_WAS_RESET);
706                 del_timer(&ipr_cmd->timer);
707                 ipr_cmd->done(ipr_cmd);
708         }
709
710         LEAVE;
711 }
712
713 /**
714  * ipr_do_req -  Send driver initiated requests.
715  * @ipr_cmd:            ipr command struct
716  * @done:                       done function
717  * @timeout_func:       timeout function
718  * @timeout:            timeout value
719  *
720  * This function sends the specified command to the adapter with the
721  * timeout given. The done function is invoked on command completion.
722  *
723  * Return value:
724  *      none
725  **/
726 static void ipr_do_req(struct ipr_cmnd *ipr_cmd,
727                        void (*done) (struct ipr_cmnd *),
728                        void (*timeout_func) (struct ipr_cmnd *), u32 timeout)
729 {
730         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
731
732         list_add_tail(&ipr_cmd->queue, &ioa_cfg->pending_q);
733
734         ipr_cmd->done = done;
735
736         ipr_cmd->timer.data = (unsigned long) ipr_cmd;
737         ipr_cmd->timer.expires = jiffies + timeout;
738         ipr_cmd->timer.function = (void (*)(unsigned long))timeout_func;
739
740         add_timer(&ipr_cmd->timer);
741
742         ipr_trc_hook(ipr_cmd, IPR_TRACE_START, 0);
743
744         mb();
745         writel(be32_to_cpu(ipr_cmd->ioarcb.ioarcb_host_pci_addr),
746                ioa_cfg->regs.ioarrin_reg);
747 }
748
749 /**
750  * ipr_internal_cmd_done - Op done function for an internally generated op.
751  * @ipr_cmd:    ipr command struct
752  *
753  * This function is the op done function for an internally generated,
754  * blocking op. It simply wakes the sleeping thread.
755  *
756  * Return value:
757  *      none
758  **/
759 static void ipr_internal_cmd_done(struct ipr_cmnd *ipr_cmd)
760 {
761         if (ipr_cmd->sibling)
762                 ipr_cmd->sibling = NULL;
763         else
764                 complete(&ipr_cmd->completion);
765 }
766
767 /**
768  * ipr_send_blocking_cmd - Send command and sleep on its completion.
769  * @ipr_cmd:    ipr command struct
770  * @timeout_func:       function to invoke if command times out
771  * @timeout:    timeout
772  *
773  * Return value:
774  *      none
775  **/
776 static void ipr_send_blocking_cmd(struct ipr_cmnd *ipr_cmd,
777                                   void (*timeout_func) (struct ipr_cmnd *ipr_cmd),
778                                   u32 timeout)
779 {
780         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
781
782         init_completion(&ipr_cmd->completion);
783         ipr_do_req(ipr_cmd, ipr_internal_cmd_done, timeout_func, timeout);
784
785         spin_unlock_irq(ioa_cfg->host->host_lock);
786         wait_for_completion(&ipr_cmd->completion);
787         spin_lock_irq(ioa_cfg->host->host_lock);
788 }
789
790 /**
791  * ipr_send_hcam - Send an HCAM to the adapter.
792  * @ioa_cfg:    ioa config struct
793  * @type:               HCAM type
794  * @hostrcb:    hostrcb struct
795  *
796  * This function will send a Host Controlled Async command to the adapter.
797  * If HCAMs are currently not allowed to be issued to the adapter, it will
798  * place the hostrcb on the free queue.
799  *
800  * Return value:
801  *      none
802  **/
803 static void ipr_send_hcam(struct ipr_ioa_cfg *ioa_cfg, u8 type,
804                           struct ipr_hostrcb *hostrcb)
805 {
806         struct ipr_cmnd *ipr_cmd;
807         struct ipr_ioarcb *ioarcb;
808
809         if (ioa_cfg->allow_cmds) {
810                 ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
811                 list_add_tail(&ipr_cmd->queue, &ioa_cfg->pending_q);
812                 list_add_tail(&hostrcb->queue, &ioa_cfg->hostrcb_pending_q);
813
814                 ipr_cmd->u.hostrcb = hostrcb;
815                 ioarcb = &ipr_cmd->ioarcb;
816
817                 ioarcb->res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
818                 ioarcb->cmd_pkt.request_type = IPR_RQTYPE_HCAM;
819                 ioarcb->cmd_pkt.cdb[0] = IPR_HOST_CONTROLLED_ASYNC;
820                 ioarcb->cmd_pkt.cdb[1] = type;
821                 ioarcb->cmd_pkt.cdb[7] = (sizeof(hostrcb->hcam) >> 8) & 0xff;
822                 ioarcb->cmd_pkt.cdb[8] = sizeof(hostrcb->hcam) & 0xff;
823
824                 ioarcb->read_data_transfer_length = cpu_to_be32(sizeof(hostrcb->hcam));
825                 ioarcb->read_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
826                 ipr_cmd->ioadl[0].flags_and_data_len =
827                         cpu_to_be32(IPR_IOADL_FLAGS_READ_LAST | sizeof(hostrcb->hcam));
828                 ipr_cmd->ioadl[0].address = cpu_to_be32(hostrcb->hostrcb_dma);
829
830                 if (type == IPR_HCAM_CDB_OP_CODE_CONFIG_CHANGE)
831                         ipr_cmd->done = ipr_process_ccn;
832                 else
833                         ipr_cmd->done = ipr_process_error;
834
835                 ipr_trc_hook(ipr_cmd, IPR_TRACE_START, IPR_IOA_RES_ADDR);
836
837                 mb();
838                 writel(be32_to_cpu(ipr_cmd->ioarcb.ioarcb_host_pci_addr),
839                        ioa_cfg->regs.ioarrin_reg);
840         } else {
841                 list_add_tail(&hostrcb->queue, &ioa_cfg->hostrcb_free_q);
842         }
843 }
844
845 /**
846  * ipr_init_res_entry - Initialize a resource entry struct.
847  * @res:        resource entry struct
848  *
849  * Return value:
850  *      none
851  **/
852 static void ipr_init_res_entry(struct ipr_resource_entry *res)
853 {
854         res->needs_sync_complete = 0;
855         res->in_erp = 0;
856         res->add_to_ml = 0;
857         res->del_from_ml = 0;
858         res->resetting_device = 0;
859         res->sdev = NULL;
860         res->sata_port = NULL;
861 }
862
863 /**
864  * ipr_handle_config_change - Handle a config change from the adapter
865  * @ioa_cfg:    ioa config struct
866  * @hostrcb:    hostrcb
867  *
868  * Return value:
869  *      none
870  **/
871 static void ipr_handle_config_change(struct ipr_ioa_cfg *ioa_cfg,
872                               struct ipr_hostrcb *hostrcb)
873 {
874         struct ipr_resource_entry *res = NULL;
875         struct ipr_config_table_entry *cfgte;
876         u32 is_ndn = 1;
877
878         cfgte = &hostrcb->hcam.u.ccn.cfgte;
879
880         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
881                 if (!memcmp(&res->cfgte.res_addr, &cfgte->res_addr,
882                             sizeof(cfgte->res_addr))) {
883                         is_ndn = 0;
884                         break;
885                 }
886         }
887
888         if (is_ndn) {
889                 if (list_empty(&ioa_cfg->free_res_q)) {
890                         ipr_send_hcam(ioa_cfg,
891                                       IPR_HCAM_CDB_OP_CODE_CONFIG_CHANGE,
892                                       hostrcb);
893                         return;
894                 }
895
896                 res = list_entry(ioa_cfg->free_res_q.next,
897                                  struct ipr_resource_entry, queue);
898
899                 list_del(&res->queue);
900                 ipr_init_res_entry(res);
901                 list_add_tail(&res->queue, &ioa_cfg->used_res_q);
902         }
903
904         memcpy(&res->cfgte, cfgte, sizeof(struct ipr_config_table_entry));
905
906         if (hostrcb->hcam.notify_type == IPR_HOST_RCB_NOTIF_TYPE_REM_ENTRY) {
907                 if (res->sdev) {
908                         res->del_from_ml = 1;
909                         res->cfgte.res_handle = IPR_INVALID_RES_HANDLE;
910                         if (ioa_cfg->allow_ml_add_del)
911                                 schedule_work(&ioa_cfg->work_q);
912                 } else
913                         list_move_tail(&res->queue, &ioa_cfg->free_res_q);
914         } else if (!res->sdev) {
915                 res->add_to_ml = 1;
916                 if (ioa_cfg->allow_ml_add_del)
917                         schedule_work(&ioa_cfg->work_q);
918         }
919
920         ipr_send_hcam(ioa_cfg, IPR_HCAM_CDB_OP_CODE_CONFIG_CHANGE, hostrcb);
921 }
922
923 /**
924  * ipr_process_ccn - Op done function for a CCN.
925  * @ipr_cmd:    ipr command struct
926  *
927  * This function is the op done function for a configuration
928  * change notification host controlled async from the adapter.
929  *
930  * Return value:
931  *      none
932  **/
933 static void ipr_process_ccn(struct ipr_cmnd *ipr_cmd)
934 {
935         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
936         struct ipr_hostrcb *hostrcb = ipr_cmd->u.hostrcb;
937         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
938
939         list_del(&hostrcb->queue);
940         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
941
942         if (ioasc) {
943                 if (ioasc != IPR_IOASC_IOA_WAS_RESET)
944                         dev_err(&ioa_cfg->pdev->dev,
945                                 "Host RCB failed with IOASC: 0x%08X\n", ioasc);
946
947                 ipr_send_hcam(ioa_cfg, IPR_HCAM_CDB_OP_CODE_CONFIG_CHANGE, hostrcb);
948         } else {
949                 ipr_handle_config_change(ioa_cfg, hostrcb);
950         }
951 }
952
953 /**
954  * ipr_log_vpd - Log the passed VPD to the error log.
955  * @vpd:                vendor/product id/sn struct
956  *
957  * Return value:
958  *      none
959  **/
960 static void ipr_log_vpd(struct ipr_vpd *vpd)
961 {
962         char buffer[IPR_VENDOR_ID_LEN + IPR_PROD_ID_LEN
963                     + IPR_SERIAL_NUM_LEN];
964
965         memcpy(buffer, vpd->vpids.vendor_id, IPR_VENDOR_ID_LEN);
966         memcpy(buffer + IPR_VENDOR_ID_LEN, vpd->vpids.product_id,
967                IPR_PROD_ID_LEN);
968         buffer[IPR_VENDOR_ID_LEN + IPR_PROD_ID_LEN] = '\0';
969         ipr_err("Vendor/Product ID: %s\n", buffer);
970
971         memcpy(buffer, vpd->sn, IPR_SERIAL_NUM_LEN);
972         buffer[IPR_SERIAL_NUM_LEN] = '\0';
973         ipr_err("    Serial Number: %s\n", buffer);
974 }
975
976 /**
977  * ipr_log_ext_vpd - Log the passed extended VPD to the error log.
978  * @vpd:                vendor/product id/sn/wwn struct
979  *
980  * Return value:
981  *      none
982  **/
983 static void ipr_log_ext_vpd(struct ipr_ext_vpd *vpd)
984 {
985         ipr_log_vpd(&vpd->vpd);
986         ipr_err("    WWN: %08X%08X\n", be32_to_cpu(vpd->wwid[0]),
987                 be32_to_cpu(vpd->wwid[1]));
988 }
989
990 /**
991  * ipr_log_enhanced_cache_error - Log a cache error.
992  * @ioa_cfg:    ioa config struct
993  * @hostrcb:    hostrcb struct
994  *
995  * Return value:
996  *      none
997  **/
998 static void ipr_log_enhanced_cache_error(struct ipr_ioa_cfg *ioa_cfg,
999                                          struct ipr_hostrcb *hostrcb)
1000 {
1001         struct ipr_hostrcb_type_12_error *error =
1002                 &hostrcb->hcam.u.error.u.type_12_error;
1003
1004         ipr_err("-----Current Configuration-----\n");
1005         ipr_err("Cache Directory Card Information:\n");
1006         ipr_log_ext_vpd(&error->ioa_vpd);
1007         ipr_err("Adapter Card Information:\n");
1008         ipr_log_ext_vpd(&error->cfc_vpd);
1009
1010         ipr_err("-----Expected Configuration-----\n");
1011         ipr_err("Cache Directory Card Information:\n");
1012         ipr_log_ext_vpd(&error->ioa_last_attached_to_cfc_vpd);
1013         ipr_err("Adapter Card Information:\n");
1014         ipr_log_ext_vpd(&error->cfc_last_attached_to_ioa_vpd);
1015
1016         ipr_err("Additional IOA Data: %08X %08X %08X\n",
1017                      be32_to_cpu(error->ioa_data[0]),
1018                      be32_to_cpu(error->ioa_data[1]),
1019                      be32_to_cpu(error->ioa_data[2]));
1020 }
1021
1022 /**
1023  * ipr_log_cache_error - Log a cache error.
1024  * @ioa_cfg:    ioa config struct
1025  * @hostrcb:    hostrcb struct
1026  *
1027  * Return value:
1028  *      none
1029  **/
1030 static void ipr_log_cache_error(struct ipr_ioa_cfg *ioa_cfg,
1031                                 struct ipr_hostrcb *hostrcb)
1032 {
1033         struct ipr_hostrcb_type_02_error *error =
1034                 &hostrcb->hcam.u.error.u.type_02_error;
1035
1036         ipr_err("-----Current Configuration-----\n");
1037         ipr_err("Cache Directory Card Information:\n");
1038         ipr_log_vpd(&error->ioa_vpd);
1039         ipr_err("Adapter Card Information:\n");
1040         ipr_log_vpd(&error->cfc_vpd);
1041
1042         ipr_err("-----Expected Configuration-----\n");
1043         ipr_err("Cache Directory Card Information:\n");
1044         ipr_log_vpd(&error->ioa_last_attached_to_cfc_vpd);
1045         ipr_err("Adapter Card Information:\n");
1046         ipr_log_vpd(&error->cfc_last_attached_to_ioa_vpd);
1047
1048         ipr_err("Additional IOA Data: %08X %08X %08X\n",
1049                      be32_to_cpu(error->ioa_data[0]),
1050                      be32_to_cpu(error->ioa_data[1]),
1051                      be32_to_cpu(error->ioa_data[2]));
1052 }
1053
1054 /**
1055  * ipr_log_enhanced_config_error - Log a configuration error.
1056  * @ioa_cfg:    ioa config struct
1057  * @hostrcb:    hostrcb struct
1058  *
1059  * Return value:
1060  *      none
1061  **/
1062 static void ipr_log_enhanced_config_error(struct ipr_ioa_cfg *ioa_cfg,
1063                                           struct ipr_hostrcb *hostrcb)
1064 {
1065         int errors_logged, i;
1066         struct ipr_hostrcb_device_data_entry_enhanced *dev_entry;
1067         struct ipr_hostrcb_type_13_error *error;
1068
1069         error = &hostrcb->hcam.u.error.u.type_13_error;
1070         errors_logged = be32_to_cpu(error->errors_logged);
1071
1072         ipr_err("Device Errors Detected/Logged: %d/%d\n",
1073                 be32_to_cpu(error->errors_detected), errors_logged);
1074
1075         dev_entry = error->dev;
1076
1077         for (i = 0; i < errors_logged; i++, dev_entry++) {
1078                 ipr_err_separator;
1079
1080                 ipr_phys_res_err(ioa_cfg, dev_entry->dev_res_addr, "Device %d", i + 1);
1081                 ipr_log_ext_vpd(&dev_entry->vpd);
1082
1083                 ipr_err("-----New Device Information-----\n");
1084                 ipr_log_ext_vpd(&dev_entry->new_vpd);
1085
1086                 ipr_err("Cache Directory Card Information:\n");
1087                 ipr_log_ext_vpd(&dev_entry->ioa_last_with_dev_vpd);
1088
1089                 ipr_err("Adapter Card Information:\n");
1090                 ipr_log_ext_vpd(&dev_entry->cfc_last_with_dev_vpd);
1091         }
1092 }
1093
1094 /**
1095  * ipr_log_config_error - Log a configuration error.
1096  * @ioa_cfg:    ioa config struct
1097  * @hostrcb:    hostrcb struct
1098  *
1099  * Return value:
1100  *      none
1101  **/
1102 static void ipr_log_config_error(struct ipr_ioa_cfg *ioa_cfg,
1103                                  struct ipr_hostrcb *hostrcb)
1104 {
1105         int errors_logged, i;
1106         struct ipr_hostrcb_device_data_entry *dev_entry;
1107         struct ipr_hostrcb_type_03_error *error;
1108
1109         error = &hostrcb->hcam.u.error.u.type_03_error;
1110         errors_logged = be32_to_cpu(error->errors_logged);
1111
1112         ipr_err("Device Errors Detected/Logged: %d/%d\n",
1113                 be32_to_cpu(error->errors_detected), errors_logged);
1114
1115         dev_entry = error->dev;
1116
1117         for (i = 0; i < errors_logged; i++, dev_entry++) {
1118                 ipr_err_separator;
1119
1120                 ipr_phys_res_err(ioa_cfg, dev_entry->dev_res_addr, "Device %d", i + 1);
1121                 ipr_log_vpd(&dev_entry->vpd);
1122
1123                 ipr_err("-----New Device Information-----\n");
1124                 ipr_log_vpd(&dev_entry->new_vpd);
1125
1126                 ipr_err("Cache Directory Card Information:\n");
1127                 ipr_log_vpd(&dev_entry->ioa_last_with_dev_vpd);
1128
1129                 ipr_err("Adapter Card Information:\n");
1130                 ipr_log_vpd(&dev_entry->cfc_last_with_dev_vpd);
1131
1132                 ipr_err("Additional IOA Data: %08X %08X %08X %08X %08X\n",
1133                         be32_to_cpu(dev_entry->ioa_data[0]),
1134                         be32_to_cpu(dev_entry->ioa_data[1]),
1135                         be32_to_cpu(dev_entry->ioa_data[2]),
1136                         be32_to_cpu(dev_entry->ioa_data[3]),
1137                         be32_to_cpu(dev_entry->ioa_data[4]));
1138         }
1139 }
1140
1141 /**
1142  * ipr_log_enhanced_array_error - Log an array configuration error.
1143  * @ioa_cfg:    ioa config struct
1144  * @hostrcb:    hostrcb struct
1145  *
1146  * Return value:
1147  *      none
1148  **/
1149 static void ipr_log_enhanced_array_error(struct ipr_ioa_cfg *ioa_cfg,
1150                                          struct ipr_hostrcb *hostrcb)
1151 {
1152         int i, num_entries;
1153         struct ipr_hostrcb_type_14_error *error;
1154         struct ipr_hostrcb_array_data_entry_enhanced *array_entry;
1155         const u8 zero_sn[IPR_SERIAL_NUM_LEN] = { [0 ... IPR_SERIAL_NUM_LEN-1] = '0' };
1156
1157         error = &hostrcb->hcam.u.error.u.type_14_error;
1158
1159         ipr_err_separator;
1160
1161         ipr_err("RAID %s Array Configuration: %d:%d:%d:%d\n",
1162                 error->protection_level,
1163                 ioa_cfg->host->host_no,
1164                 error->last_func_vset_res_addr.bus,
1165                 error->last_func_vset_res_addr.target,
1166                 error->last_func_vset_res_addr.lun);
1167
1168         ipr_err_separator;
1169
1170         array_entry = error->array_member;
1171         num_entries = min_t(u32, be32_to_cpu(error->num_entries),
1172                             sizeof(error->array_member));
1173
1174         for (i = 0; i < num_entries; i++, array_entry++) {
1175                 if (!memcmp(array_entry->vpd.vpd.sn, zero_sn, IPR_SERIAL_NUM_LEN))
1176                         continue;
1177
1178                 if (be32_to_cpu(error->exposed_mode_adn) == i)
1179                         ipr_err("Exposed Array Member %d:\n", i);
1180                 else
1181                         ipr_err("Array Member %d:\n", i);
1182
1183                 ipr_log_ext_vpd(&array_entry->vpd);
1184                 ipr_phys_res_err(ioa_cfg, array_entry->dev_res_addr, "Current Location");
1185                 ipr_phys_res_err(ioa_cfg, array_entry->expected_dev_res_addr,
1186                                  "Expected Location");
1187
1188                 ipr_err_separator;
1189         }
1190 }
1191
1192 /**
1193  * ipr_log_array_error - Log an array configuration error.
1194  * @ioa_cfg:    ioa config struct
1195  * @hostrcb:    hostrcb struct
1196  *
1197  * Return value:
1198  *      none
1199  **/
1200 static void ipr_log_array_error(struct ipr_ioa_cfg *ioa_cfg,
1201                                 struct ipr_hostrcb *hostrcb)
1202 {
1203         int i;
1204         struct ipr_hostrcb_type_04_error *error;
1205         struct ipr_hostrcb_array_data_entry *array_entry;
1206         const u8 zero_sn[IPR_SERIAL_NUM_LEN] = { [0 ... IPR_SERIAL_NUM_LEN-1] = '0' };
1207
1208         error = &hostrcb->hcam.u.error.u.type_04_error;
1209
1210         ipr_err_separator;
1211
1212         ipr_err("RAID %s Array Configuration: %d:%d:%d:%d\n",
1213                 error->protection_level,
1214                 ioa_cfg->host->host_no,
1215                 error->last_func_vset_res_addr.bus,
1216                 error->last_func_vset_res_addr.target,
1217                 error->last_func_vset_res_addr.lun);
1218
1219         ipr_err_separator;
1220
1221         array_entry = error->array_member;
1222
1223         for (i = 0; i < 18; i++) {
1224                 if (!memcmp(array_entry->vpd.sn, zero_sn, IPR_SERIAL_NUM_LEN))
1225                         continue;
1226
1227                 if (be32_to_cpu(error->exposed_mode_adn) == i)
1228                         ipr_err("Exposed Array Member %d:\n", i);
1229                 else
1230                         ipr_err("Array Member %d:\n", i);
1231
1232                 ipr_log_vpd(&array_entry->vpd);
1233
1234                 ipr_phys_res_err(ioa_cfg, array_entry->dev_res_addr, "Current Location");
1235                 ipr_phys_res_err(ioa_cfg, array_entry->expected_dev_res_addr,
1236                                  "Expected Location");
1237
1238                 ipr_err_separator;
1239
1240                 if (i == 9)
1241                         array_entry = error->array_member2;
1242                 else
1243                         array_entry++;
1244         }
1245 }
1246
1247 /**
1248  * ipr_log_hex_data - Log additional hex IOA error data.
1249  * @ioa_cfg:    ioa config struct
1250  * @data:               IOA error data
1251  * @len:                data length
1252  *
1253  * Return value:
1254  *      none
1255  **/
1256 static void ipr_log_hex_data(struct ipr_ioa_cfg *ioa_cfg, u32 *data, int len)
1257 {
1258         int i;
1259
1260         if (len == 0)
1261                 return;
1262
1263         if (ioa_cfg->log_level <= IPR_DEFAULT_LOG_LEVEL)
1264                 len = min_t(int, len, IPR_DEFAULT_MAX_ERROR_DUMP);
1265
1266         for (i = 0; i < len / 4; i += 4) {
1267                 ipr_err("%08X: %08X %08X %08X %08X\n", i*4,
1268                         be32_to_cpu(data[i]),
1269                         be32_to_cpu(data[i+1]),
1270                         be32_to_cpu(data[i+2]),
1271                         be32_to_cpu(data[i+3]));
1272         }
1273 }
1274
1275 /**
1276  * ipr_log_enhanced_dual_ioa_error - Log an enhanced dual adapter error.
1277  * @ioa_cfg:    ioa config struct
1278  * @hostrcb:    hostrcb struct
1279  *
1280  * Return value:
1281  *      none
1282  **/
1283 static void ipr_log_enhanced_dual_ioa_error(struct ipr_ioa_cfg *ioa_cfg,
1284                                             struct ipr_hostrcb *hostrcb)
1285 {
1286         struct ipr_hostrcb_type_17_error *error;
1287
1288         error = &hostrcb->hcam.u.error.u.type_17_error;
1289         error->failure_reason[sizeof(error->failure_reason) - 1] = '\0';
1290
1291         ipr_err("%s\n", error->failure_reason);
1292         ipr_err("Remote Adapter VPD:\n");
1293         ipr_log_ext_vpd(&error->vpd);
1294         ipr_log_hex_data(ioa_cfg, error->data,
1295                          be32_to_cpu(hostrcb->hcam.length) -
1296                          (offsetof(struct ipr_hostrcb_error, u) +
1297                           offsetof(struct ipr_hostrcb_type_17_error, data)));
1298 }
1299
1300 /**
1301  * ipr_log_dual_ioa_error - Log a dual adapter error.
1302  * @ioa_cfg:    ioa config struct
1303  * @hostrcb:    hostrcb struct
1304  *
1305  * Return value:
1306  *      none
1307  **/
1308 static void ipr_log_dual_ioa_error(struct ipr_ioa_cfg *ioa_cfg,
1309                                    struct ipr_hostrcb *hostrcb)
1310 {
1311         struct ipr_hostrcb_type_07_error *error;
1312
1313         error = &hostrcb->hcam.u.error.u.type_07_error;
1314         error->failure_reason[sizeof(error->failure_reason) - 1] = '\0';
1315
1316         ipr_err("%s\n", error->failure_reason);
1317         ipr_err("Remote Adapter VPD:\n");
1318         ipr_log_vpd(&error->vpd);
1319         ipr_log_hex_data(ioa_cfg, error->data,
1320                          be32_to_cpu(hostrcb->hcam.length) -
1321                          (offsetof(struct ipr_hostrcb_error, u) +
1322                           offsetof(struct ipr_hostrcb_type_07_error, data)));
1323 }
1324
1325 static const struct {
1326         u8 active;
1327         char *desc;
1328 } path_active_desc[] = {
1329         { IPR_PATH_NO_INFO, "Path" },
1330         { IPR_PATH_ACTIVE, "Active path" },
1331         { IPR_PATH_NOT_ACTIVE, "Inactive path" }
1332 };
1333
1334 static const struct {
1335         u8 state;
1336         char *desc;
1337 } path_state_desc[] = {
1338         { IPR_PATH_STATE_NO_INFO, "has no path state information available" },
1339         { IPR_PATH_HEALTHY, "is healthy" },
1340         { IPR_PATH_DEGRADED, "is degraded" },
1341         { IPR_PATH_FAILED, "is failed" }
1342 };
1343
1344 /**
1345  * ipr_log_fabric_path - Log a fabric path error
1346  * @hostrcb:    hostrcb struct
1347  * @fabric:             fabric descriptor
1348  *
1349  * Return value:
1350  *      none
1351  **/
1352 static void ipr_log_fabric_path(struct ipr_hostrcb *hostrcb,
1353                                 struct ipr_hostrcb_fabric_desc *fabric)
1354 {
1355         int i, j;
1356         u8 path_state = fabric->path_state;
1357         u8 active = path_state & IPR_PATH_ACTIVE_MASK;
1358         u8 state = path_state & IPR_PATH_STATE_MASK;
1359
1360         for (i = 0; i < ARRAY_SIZE(path_active_desc); i++) {
1361                 if (path_active_desc[i].active != active)
1362                         continue;
1363
1364                 for (j = 0; j < ARRAY_SIZE(path_state_desc); j++) {
1365                         if (path_state_desc[j].state != state)
1366                                 continue;
1367
1368                         if (fabric->cascaded_expander == 0xff && fabric->phy == 0xff) {
1369                                 ipr_hcam_err(hostrcb, "%s %s: IOA Port=%d\n",
1370                                              path_active_desc[i].desc, path_state_desc[j].desc,
1371                                              fabric->ioa_port);
1372                         } else if (fabric->cascaded_expander == 0xff) {
1373                                 ipr_hcam_err(hostrcb, "%s %s: IOA Port=%d, Phy=%d\n",
1374                                              path_active_desc[i].desc, path_state_desc[j].desc,
1375                                              fabric->ioa_port, fabric->phy);
1376                         } else if (fabric->phy == 0xff) {
1377                                 ipr_hcam_err(hostrcb, "%s %s: IOA Port=%d, Cascade=%d\n",
1378                                              path_active_desc[i].desc, path_state_desc[j].desc,
1379                                              fabric->ioa_port, fabric->cascaded_expander);
1380                         } else {
1381                                 ipr_hcam_err(hostrcb, "%s %s: IOA Port=%d, Cascade=%d, Phy=%d\n",
1382                                              path_active_desc[i].desc, path_state_desc[j].desc,
1383                                              fabric->ioa_port, fabric->cascaded_expander, fabric->phy);
1384                         }
1385                         return;
1386                 }
1387         }
1388
1389         ipr_err("Path state=%02X IOA Port=%d Cascade=%d Phy=%d\n", path_state,
1390                 fabric->ioa_port, fabric->cascaded_expander, fabric->phy);
1391 }
1392
1393 static const struct {
1394         u8 type;
1395         char *desc;
1396 } path_type_desc[] = {
1397         { IPR_PATH_CFG_IOA_PORT, "IOA port" },
1398         { IPR_PATH_CFG_EXP_PORT, "Expander port" },
1399         { IPR_PATH_CFG_DEVICE_PORT, "Device port" },
1400         { IPR_PATH_CFG_DEVICE_LUN, "Device LUN" }
1401 };
1402
1403 static const struct {
1404         u8 status;
1405         char *desc;
1406 } path_status_desc[] = {
1407         { IPR_PATH_CFG_NO_PROB, "Functional" },
1408         { IPR_PATH_CFG_DEGRADED, "Degraded" },
1409         { IPR_PATH_CFG_FAILED, "Failed" },
1410         { IPR_PATH_CFG_SUSPECT, "Suspect" },
1411         { IPR_PATH_NOT_DETECTED, "Missing" },
1412         { IPR_PATH_INCORRECT_CONN, "Incorrectly connected" }
1413 };
1414
1415 static const char *link_rate[] = {
1416         "unknown",
1417         "disabled",
1418         "phy reset problem",
1419         "spinup hold",
1420         "port selector",
1421         "unknown",
1422         "unknown",
1423         "unknown",
1424         "1.5Gbps",
1425         "3.0Gbps",
1426         "unknown",
1427         "unknown",
1428         "unknown",
1429         "unknown",
1430         "unknown",
1431         "unknown"
1432 };
1433
1434 /**
1435  * ipr_log_path_elem - Log a fabric path element.
1436  * @hostrcb:    hostrcb struct
1437  * @cfg:                fabric path element struct
1438  *
1439  * Return value:
1440  *      none
1441  **/
1442 static void ipr_log_path_elem(struct ipr_hostrcb *hostrcb,
1443                               struct ipr_hostrcb_config_element *cfg)
1444 {
1445         int i, j;
1446         u8 type = cfg->type_status & IPR_PATH_CFG_TYPE_MASK;
1447         u8 status = cfg->type_status & IPR_PATH_CFG_STATUS_MASK;
1448
1449         if (type == IPR_PATH_CFG_NOT_EXIST)
1450                 return;
1451
1452         for (i = 0; i < ARRAY_SIZE(path_type_desc); i++) {
1453                 if (path_type_desc[i].type != type)
1454                         continue;
1455
1456                 for (j = 0; j < ARRAY_SIZE(path_status_desc); j++) {
1457                         if (path_status_desc[j].status != status)
1458                                 continue;
1459
1460                         if (type == IPR_PATH_CFG_IOA_PORT) {
1461                                 ipr_hcam_err(hostrcb, "%s %s: Phy=%d, Link rate=%s, WWN=%08X%08X\n",
1462                                              path_status_desc[j].desc, path_type_desc[i].desc,
1463                                              cfg->phy, link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1464                                              be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1465                         } else {
1466                                 if (cfg->cascaded_expander == 0xff && cfg->phy == 0xff) {
1467                                         ipr_hcam_err(hostrcb, "%s %s: Link rate=%s, WWN=%08X%08X\n",
1468                                                      path_status_desc[j].desc, path_type_desc[i].desc,
1469                                                      link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1470                                                      be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1471                                 } else if (cfg->cascaded_expander == 0xff) {
1472                                         ipr_hcam_err(hostrcb, "%s %s: Phy=%d, Link rate=%s, "
1473                                                      "WWN=%08X%08X\n", path_status_desc[j].desc,
1474                                                      path_type_desc[i].desc, cfg->phy,
1475                                                      link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1476                                                      be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1477                                 } else if (cfg->phy == 0xff) {
1478                                         ipr_hcam_err(hostrcb, "%s %s: Cascade=%d, Link rate=%s, "
1479                                                      "WWN=%08X%08X\n", path_status_desc[j].desc,
1480                                                      path_type_desc[i].desc, cfg->cascaded_expander,
1481                                                      link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1482                                                      be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1483                                 } else {
1484                                         ipr_hcam_err(hostrcb, "%s %s: Cascade=%d, Phy=%d, Link rate=%s "
1485                                                      "WWN=%08X%08X\n", path_status_desc[j].desc,
1486                                                      path_type_desc[i].desc, cfg->cascaded_expander, cfg->phy,
1487                                                      link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1488                                                      be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1489                                 }
1490                         }
1491                         return;
1492                 }
1493         }
1494
1495         ipr_hcam_err(hostrcb, "Path element=%02X: Cascade=%d Phy=%d Link rate=%s "
1496                      "WWN=%08X%08X\n", cfg->type_status, cfg->cascaded_expander, cfg->phy,
1497                      link_rate[cfg->link_rate & IPR_PHY_LINK_RATE_MASK],
1498                      be32_to_cpu(cfg->wwid[0]), be32_to_cpu(cfg->wwid[1]));
1499 }
1500
1501 /**
1502  * ipr_log_fabric_error - Log a fabric error.
1503  * @ioa_cfg:    ioa config struct
1504  * @hostrcb:    hostrcb struct
1505  *
1506  * Return value:
1507  *      none
1508  **/
1509 static void ipr_log_fabric_error(struct ipr_ioa_cfg *ioa_cfg,
1510                                  struct ipr_hostrcb *hostrcb)
1511 {
1512         struct ipr_hostrcb_type_20_error *error;
1513         struct ipr_hostrcb_fabric_desc *fabric;
1514         struct ipr_hostrcb_config_element *cfg;
1515         int i, add_len;
1516
1517         error = &hostrcb->hcam.u.error.u.type_20_error;
1518         error->failure_reason[sizeof(error->failure_reason) - 1] = '\0';
1519         ipr_hcam_err(hostrcb, "%s\n", error->failure_reason);
1520
1521         add_len = be32_to_cpu(hostrcb->hcam.length) -
1522                 (offsetof(struct ipr_hostrcb_error, u) +
1523                  offsetof(struct ipr_hostrcb_type_20_error, desc));
1524
1525         for (i = 0, fabric = error->desc; i < error->num_entries; i++) {
1526                 ipr_log_fabric_path(hostrcb, fabric);
1527                 for_each_fabric_cfg(fabric, cfg)
1528                         ipr_log_path_elem(hostrcb, cfg);
1529
1530                 add_len -= be16_to_cpu(fabric->length);
1531                 fabric = (struct ipr_hostrcb_fabric_desc *)
1532                         ((unsigned long)fabric + be16_to_cpu(fabric->length));
1533         }
1534
1535         ipr_log_hex_data(ioa_cfg, (u32 *)fabric, add_len);
1536 }
1537
1538 /**
1539  * ipr_log_generic_error - Log an adapter error.
1540  * @ioa_cfg:    ioa config struct
1541  * @hostrcb:    hostrcb struct
1542  *
1543  * Return value:
1544  *      none
1545  **/
1546 static void ipr_log_generic_error(struct ipr_ioa_cfg *ioa_cfg,
1547                                   struct ipr_hostrcb *hostrcb)
1548 {
1549         ipr_log_hex_data(ioa_cfg, hostrcb->hcam.u.raw.data,
1550                          be32_to_cpu(hostrcb->hcam.length));
1551 }
1552
1553 /**
1554  * ipr_get_error - Find the specfied IOASC in the ipr_error_table.
1555  * @ioasc:      IOASC
1556  *
1557  * This function will return the index of into the ipr_error_table
1558  * for the specified IOASC. If the IOASC is not in the table,
1559  * 0 will be returned, which points to the entry used for unknown errors.
1560  *
1561  * Return value:
1562  *      index into the ipr_error_table
1563  **/
1564 static u32 ipr_get_error(u32 ioasc)
1565 {
1566         int i;
1567
1568         for (i = 0; i < ARRAY_SIZE(ipr_error_table); i++)
1569                 if (ipr_error_table[i].ioasc == (ioasc & IPR_IOASC_IOASC_MASK))
1570                         return i;
1571
1572         return 0;
1573 }
1574
1575 /**
1576  * ipr_handle_log_data - Log an adapter error.
1577  * @ioa_cfg:    ioa config struct
1578  * @hostrcb:    hostrcb struct
1579  *
1580  * This function logs an adapter error to the system.
1581  *
1582  * Return value:
1583  *      none
1584  **/
1585 static void ipr_handle_log_data(struct ipr_ioa_cfg *ioa_cfg,
1586                                 struct ipr_hostrcb *hostrcb)
1587 {
1588         u32 ioasc;
1589         int error_index;
1590
1591         if (hostrcb->hcam.notify_type != IPR_HOST_RCB_NOTIF_TYPE_ERROR_LOG_ENTRY)
1592                 return;
1593
1594         if (hostrcb->hcam.notifications_lost == IPR_HOST_RCB_NOTIFICATIONS_LOST)
1595                 dev_err(&ioa_cfg->pdev->dev, "Error notifications lost\n");
1596
1597         ioasc = be32_to_cpu(hostrcb->hcam.u.error.failing_dev_ioasc);
1598
1599         if (ioasc == IPR_IOASC_BUS_WAS_RESET ||
1600             ioasc == IPR_IOASC_BUS_WAS_RESET_BY_OTHER) {
1601                 /* Tell the midlayer we had a bus reset so it will handle the UA properly */
1602                 scsi_report_bus_reset(ioa_cfg->host,
1603                                       hostrcb->hcam.u.error.failing_dev_res_addr.bus);
1604         }
1605
1606         error_index = ipr_get_error(ioasc);
1607
1608         if (!ipr_error_table[error_index].log_hcam)
1609                 return;
1610
1611         ipr_hcam_err(hostrcb, "%s\n", ipr_error_table[error_index].error);
1612
1613         /* Set indication we have logged an error */
1614         ioa_cfg->errors_logged++;
1615
1616         if (ioa_cfg->log_level < ipr_error_table[error_index].log_hcam)
1617                 return;
1618         if (be32_to_cpu(hostrcb->hcam.length) > sizeof(hostrcb->hcam.u.raw))
1619                 hostrcb->hcam.length = cpu_to_be32(sizeof(hostrcb->hcam.u.raw));
1620
1621         switch (hostrcb->hcam.overlay_id) {
1622         case IPR_HOST_RCB_OVERLAY_ID_2:
1623                 ipr_log_cache_error(ioa_cfg, hostrcb);
1624                 break;
1625         case IPR_HOST_RCB_OVERLAY_ID_3:
1626                 ipr_log_config_error(ioa_cfg, hostrcb);
1627                 break;
1628         case IPR_HOST_RCB_OVERLAY_ID_4:
1629         case IPR_HOST_RCB_OVERLAY_ID_6:
1630                 ipr_log_array_error(ioa_cfg, hostrcb);
1631                 break;
1632         case IPR_HOST_RCB_OVERLAY_ID_7:
1633                 ipr_log_dual_ioa_error(ioa_cfg, hostrcb);
1634                 break;
1635         case IPR_HOST_RCB_OVERLAY_ID_12:
1636                 ipr_log_enhanced_cache_error(ioa_cfg, hostrcb);
1637                 break;
1638         case IPR_HOST_RCB_OVERLAY_ID_13:
1639                 ipr_log_enhanced_config_error(ioa_cfg, hostrcb);
1640                 break;
1641         case IPR_HOST_RCB_OVERLAY_ID_14:
1642         case IPR_HOST_RCB_OVERLAY_ID_16:
1643                 ipr_log_enhanced_array_error(ioa_cfg, hostrcb);
1644                 break;
1645         case IPR_HOST_RCB_OVERLAY_ID_17:
1646                 ipr_log_enhanced_dual_ioa_error(ioa_cfg, hostrcb);
1647                 break;
1648         case IPR_HOST_RCB_OVERLAY_ID_20:
1649                 ipr_log_fabric_error(ioa_cfg, hostrcb);
1650                 break;
1651         case IPR_HOST_RCB_OVERLAY_ID_1:
1652         case IPR_HOST_RCB_OVERLAY_ID_DEFAULT:
1653         default:
1654                 ipr_log_generic_error(ioa_cfg, hostrcb);
1655                 break;
1656         }
1657 }
1658
1659 /**
1660  * ipr_process_error - Op done function for an adapter error log.
1661  * @ipr_cmd:    ipr command struct
1662  *
1663  * This function is the op done function for an error log host
1664  * controlled async from the adapter. It will log the error and
1665  * send the HCAM back to the adapter.
1666  *
1667  * Return value:
1668  *      none
1669  **/
1670 static void ipr_process_error(struct ipr_cmnd *ipr_cmd)
1671 {
1672         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
1673         struct ipr_hostrcb *hostrcb = ipr_cmd->u.hostrcb;
1674         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
1675
1676         list_del(&hostrcb->queue);
1677         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
1678
1679         if (!ioasc) {
1680                 ipr_handle_log_data(ioa_cfg, hostrcb);
1681         } else if (ioasc != IPR_IOASC_IOA_WAS_RESET) {
1682                 dev_err(&ioa_cfg->pdev->dev,
1683                         "Host RCB failed with IOASC: 0x%08X\n", ioasc);
1684         }
1685
1686         ipr_send_hcam(ioa_cfg, IPR_HCAM_CDB_OP_CODE_LOG_DATA, hostrcb);
1687 }
1688
1689 /**
1690  * ipr_timeout -  An internally generated op has timed out.
1691  * @ipr_cmd:    ipr command struct
1692  *
1693  * This function blocks host requests and initiates an
1694  * adapter reset.
1695  *
1696  * Return value:
1697  *      none
1698  **/
1699 static void ipr_timeout(struct ipr_cmnd *ipr_cmd)
1700 {
1701         unsigned long lock_flags = 0;
1702         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
1703
1704         ENTER;
1705         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
1706
1707         ioa_cfg->errors_logged++;
1708         dev_err(&ioa_cfg->pdev->dev,
1709                 "Adapter being reset due to command timeout.\n");
1710
1711         if (WAIT_FOR_DUMP == ioa_cfg->sdt_state)
1712                 ioa_cfg->sdt_state = GET_DUMP;
1713
1714         if (!ioa_cfg->in_reset_reload || ioa_cfg->reset_cmd == ipr_cmd)
1715                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
1716
1717         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
1718         LEAVE;
1719 }
1720
1721 /**
1722  * ipr_oper_timeout -  Adapter timed out transitioning to operational
1723  * @ipr_cmd:    ipr command struct
1724  *
1725  * This function blocks host requests and initiates an
1726  * adapter reset.
1727  *
1728  * Return value:
1729  *      none
1730  **/
1731 static void ipr_oper_timeout(struct ipr_cmnd *ipr_cmd)
1732 {
1733         unsigned long lock_flags = 0;
1734         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
1735
1736         ENTER;
1737         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
1738
1739         ioa_cfg->errors_logged++;
1740         dev_err(&ioa_cfg->pdev->dev,
1741                 "Adapter timed out transitioning to operational.\n");
1742
1743         if (WAIT_FOR_DUMP == ioa_cfg->sdt_state)
1744                 ioa_cfg->sdt_state = GET_DUMP;
1745
1746         if (!ioa_cfg->in_reset_reload || ioa_cfg->reset_cmd == ipr_cmd) {
1747                 if (ipr_fastfail)
1748                         ioa_cfg->reset_retries += IPR_NUM_RESET_RELOAD_RETRIES;
1749                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
1750         }
1751
1752         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
1753         LEAVE;
1754 }
1755
1756 /**
1757  * ipr_reset_reload - Reset/Reload the IOA
1758  * @ioa_cfg:            ioa config struct
1759  * @shutdown_type:      shutdown type
1760  *
1761  * This function resets the adapter and re-initializes it.
1762  * This function assumes that all new host commands have been stopped.
1763  * Return value:
1764  *      SUCCESS / FAILED
1765  **/
1766 static int ipr_reset_reload(struct ipr_ioa_cfg *ioa_cfg,
1767                             enum ipr_shutdown_type shutdown_type)
1768 {
1769         if (!ioa_cfg->in_reset_reload)
1770                 ipr_initiate_ioa_reset(ioa_cfg, shutdown_type);
1771
1772         spin_unlock_irq(ioa_cfg->host->host_lock);
1773         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
1774         spin_lock_irq(ioa_cfg->host->host_lock);
1775
1776         /* If we got hit with a host reset while we were already resetting
1777          the adapter for some reason, and the reset failed. */
1778         if (ioa_cfg->ioa_is_dead) {
1779                 ipr_trace;
1780                 return FAILED;
1781         }
1782
1783         return SUCCESS;
1784 }
1785
1786 /**
1787  * ipr_find_ses_entry - Find matching SES in SES table
1788  * @res:        resource entry struct of SES
1789  *
1790  * Return value:
1791  *      pointer to SES table entry / NULL on failure
1792  **/
1793 static const struct ipr_ses_table_entry *
1794 ipr_find_ses_entry(struct ipr_resource_entry *res)
1795 {
1796         int i, j, matches;
1797         const struct ipr_ses_table_entry *ste = ipr_ses_table;
1798
1799         for (i = 0; i < ARRAY_SIZE(ipr_ses_table); i++, ste++) {
1800                 for (j = 0, matches = 0; j < IPR_PROD_ID_LEN; j++) {
1801                         if (ste->compare_product_id_byte[j] == 'X') {
1802                                 if (res->cfgte.std_inq_data.vpids.product_id[j] == ste->product_id[j])
1803                                         matches++;
1804                                 else
1805                                         break;
1806                         } else
1807                                 matches++;
1808                 }
1809
1810                 if (matches == IPR_PROD_ID_LEN)
1811                         return ste;
1812         }
1813
1814         return NULL;
1815 }
1816
1817 /**
1818  * ipr_get_max_scsi_speed - Determine max SCSI speed for a given bus
1819  * @ioa_cfg:    ioa config struct
1820  * @bus:                SCSI bus
1821  * @bus_width:  bus width
1822  *
1823  * Return value:
1824  *      SCSI bus speed in units of 100KHz, 1600 is 160 MHz
1825  *      For a 2-byte wide SCSI bus, the maximum transfer speed is
1826  *      twice the maximum transfer rate (e.g. for a wide enabled bus,
1827  *      max 160MHz = max 320MB/sec).
1828  **/
1829 static u32 ipr_get_max_scsi_speed(struct ipr_ioa_cfg *ioa_cfg, u8 bus, u8 bus_width)
1830 {
1831         struct ipr_resource_entry *res;
1832         const struct ipr_ses_table_entry *ste;
1833         u32 max_xfer_rate = IPR_MAX_SCSI_RATE(bus_width);
1834
1835         /* Loop through each config table entry in the config table buffer */
1836         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
1837                 if (!(IPR_IS_SES_DEVICE(res->cfgte.std_inq_data)))
1838                         continue;
1839
1840                 if (bus != res->cfgte.res_addr.bus)
1841                         continue;
1842
1843                 if (!(ste = ipr_find_ses_entry(res)))
1844                         continue;
1845
1846                 max_xfer_rate = (ste->max_bus_speed_limit * 10) / (bus_width / 8);
1847         }
1848
1849         return max_xfer_rate;
1850 }
1851
1852 /**
1853  * ipr_wait_iodbg_ack - Wait for an IODEBUG ACK from the IOA
1854  * @ioa_cfg:            ioa config struct
1855  * @max_delay:          max delay in micro-seconds to wait
1856  *
1857  * Waits for an IODEBUG ACK from the IOA, doing busy looping.
1858  *
1859  * Return value:
1860  *      0 on success / other on failure
1861  **/
1862 static int ipr_wait_iodbg_ack(struct ipr_ioa_cfg *ioa_cfg, int max_delay)
1863 {
1864         volatile u32 pcii_reg;
1865         int delay = 1;
1866
1867         /* Read interrupt reg until IOA signals IO Debug Acknowledge */
1868         while (delay < max_delay) {
1869                 pcii_reg = readl(ioa_cfg->regs.sense_interrupt_reg);
1870
1871                 if (pcii_reg & IPR_PCII_IO_DEBUG_ACKNOWLEDGE)
1872                         return 0;
1873
1874                 /* udelay cannot be used if delay is more than a few milliseconds */
1875                 if ((delay / 1000) > MAX_UDELAY_MS)
1876                         mdelay(delay / 1000);
1877                 else
1878                         udelay(delay);
1879
1880                 delay += delay;
1881         }
1882         return -EIO;
1883 }
1884
1885 /**
1886  * ipr_get_ldump_data_section - Dump IOA memory
1887  * @ioa_cfg:                    ioa config struct
1888  * @start_addr:                 adapter address to dump
1889  * @dest:                               destination kernel buffer
1890  * @length_in_words:    length to dump in 4 byte words
1891  *
1892  * Return value:
1893  *      0 on success / -EIO on failure
1894  **/
1895 static int ipr_get_ldump_data_section(struct ipr_ioa_cfg *ioa_cfg,
1896                                       u32 start_addr,
1897                                       __be32 *dest, u32 length_in_words)
1898 {
1899         volatile u32 temp_pcii_reg;
1900         int i, delay = 0;
1901
1902         /* Write IOA interrupt reg starting LDUMP state  */
1903         writel((IPR_UPROCI_RESET_ALERT | IPR_UPROCI_IO_DEBUG_ALERT),
1904                ioa_cfg->regs.set_uproc_interrupt_reg);
1905
1906         /* Wait for IO debug acknowledge */
1907         if (ipr_wait_iodbg_ack(ioa_cfg,
1908                                IPR_LDUMP_MAX_LONG_ACK_DELAY_IN_USEC)) {
1909                 dev_err(&ioa_cfg->pdev->dev,
1910                         "IOA dump long data transfer timeout\n");
1911                 return -EIO;
1912         }
1913
1914         /* Signal LDUMP interlocked - clear IO debug ack */
1915         writel(IPR_PCII_IO_DEBUG_ACKNOWLEDGE,
1916                ioa_cfg->regs.clr_interrupt_reg);
1917
1918         /* Write Mailbox with starting address */
1919         writel(start_addr, ioa_cfg->ioa_mailbox);
1920
1921         /* Signal address valid - clear IOA Reset alert */
1922         writel(IPR_UPROCI_RESET_ALERT,
1923                ioa_cfg->regs.clr_uproc_interrupt_reg);
1924
1925         for (i = 0; i < length_in_words; i++) {
1926                 /* Wait for IO debug acknowledge */
1927                 if (ipr_wait_iodbg_ack(ioa_cfg,
1928                                        IPR_LDUMP_MAX_SHORT_ACK_DELAY_IN_USEC)) {
1929                         dev_err(&ioa_cfg->pdev->dev,
1930                                 "IOA dump short data transfer timeout\n");
1931                         return -EIO;
1932                 }
1933
1934                 /* Read data from mailbox and increment destination pointer */
1935                 *dest = cpu_to_be32(readl(ioa_cfg->ioa_mailbox));
1936                 dest++;
1937
1938                 /* For all but the last word of data, signal data received */
1939                 if (i < (length_in_words - 1)) {
1940                         /* Signal dump data received - Clear IO debug Ack */
1941                         writel(IPR_PCII_IO_DEBUG_ACKNOWLEDGE,
1942                                ioa_cfg->regs.clr_interrupt_reg);
1943                 }
1944         }
1945
1946         /* Signal end of block transfer. Set reset alert then clear IO debug ack */
1947         writel(IPR_UPROCI_RESET_ALERT,
1948                ioa_cfg->regs.set_uproc_interrupt_reg);
1949
1950         writel(IPR_UPROCI_IO_DEBUG_ALERT,
1951                ioa_cfg->regs.clr_uproc_interrupt_reg);
1952
1953         /* Signal dump data received - Clear IO debug Ack */
1954         writel(IPR_PCII_IO_DEBUG_ACKNOWLEDGE,
1955                ioa_cfg->regs.clr_interrupt_reg);
1956
1957         /* Wait for IOA to signal LDUMP exit - IOA reset alert will be cleared */
1958         while (delay < IPR_LDUMP_MAX_SHORT_ACK_DELAY_IN_USEC) {
1959                 temp_pcii_reg =
1960                     readl(ioa_cfg->regs.sense_uproc_interrupt_reg);
1961
1962                 if (!(temp_pcii_reg & IPR_UPROCI_RESET_ALERT))
1963                         return 0;
1964
1965                 udelay(10);
1966                 delay += 10;
1967         }
1968
1969         return 0;
1970 }
1971
1972 #ifdef CONFIG_SCSI_IPR_DUMP
1973 /**
1974  * ipr_sdt_copy - Copy Smart Dump Table to kernel buffer
1975  * @ioa_cfg:            ioa config struct
1976  * @pci_address:        adapter address
1977  * @length:                     length of data to copy
1978  *
1979  * Copy data from PCI adapter to kernel buffer.
1980  * Note: length MUST be a 4 byte multiple
1981  * Return value:
1982  *      0 on success / other on failure
1983  **/
1984 static int ipr_sdt_copy(struct ipr_ioa_cfg *ioa_cfg,
1985                         unsigned long pci_address, u32 length)
1986 {
1987         int bytes_copied = 0;
1988         int cur_len, rc, rem_len, rem_page_len;
1989         __be32 *page;
1990         unsigned long lock_flags = 0;
1991         struct ipr_ioa_dump *ioa_dump = &ioa_cfg->dump->ioa_dump;
1992
1993         while (bytes_copied < length &&
1994                (ioa_dump->hdr.len + bytes_copied) < IPR_MAX_IOA_DUMP_SIZE) {
1995                 if (ioa_dump->page_offset >= PAGE_SIZE ||
1996                     ioa_dump->page_offset == 0) {
1997                         page = (__be32 *)__get_free_page(GFP_ATOMIC);
1998
1999                         if (!page) {
2000                                 ipr_trace;
2001                                 return bytes_copied;
2002                         }
2003
2004                         ioa_dump->page_offset = 0;
2005                         ioa_dump->ioa_data[ioa_dump->next_page_index] = page;
2006                         ioa_dump->next_page_index++;
2007                 } else
2008                         page = ioa_dump->ioa_data[ioa_dump->next_page_index - 1];
2009
2010                 rem_len = length - bytes_copied;
2011                 rem_page_len = PAGE_SIZE - ioa_dump->page_offset;
2012                 cur_len = min(rem_len, rem_page_len);
2013
2014                 spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2015                 if (ioa_cfg->sdt_state == ABORT_DUMP) {
2016                         rc = -EIO;
2017                 } else {
2018                         rc = ipr_get_ldump_data_section(ioa_cfg,
2019                                                         pci_address + bytes_copied,
2020                                                         &page[ioa_dump->page_offset / 4],
2021                                                         (cur_len / sizeof(u32)));
2022                 }
2023                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2024
2025                 if (!rc) {
2026                         ioa_dump->page_offset += cur_len;
2027                         bytes_copied += cur_len;
2028                 } else {
2029                         ipr_trace;
2030                         break;
2031                 }
2032                 schedule();
2033         }
2034
2035         return bytes_copied;
2036 }
2037
2038 /**
2039  * ipr_init_dump_entry_hdr - Initialize a dump entry header.
2040  * @hdr:        dump entry header struct
2041  *
2042  * Return value:
2043  *      nothing
2044  **/
2045 static void ipr_init_dump_entry_hdr(struct ipr_dump_entry_header *hdr)
2046 {
2047         hdr->eye_catcher = IPR_DUMP_EYE_CATCHER;
2048         hdr->num_elems = 1;
2049         hdr->offset = sizeof(*hdr);
2050         hdr->status = IPR_DUMP_STATUS_SUCCESS;
2051 }
2052
2053 /**
2054  * ipr_dump_ioa_type_data - Fill in the adapter type in the dump.
2055  * @ioa_cfg:    ioa config struct
2056  * @driver_dump:        driver dump struct
2057  *
2058  * Return value:
2059  *      nothing
2060  **/
2061 static void ipr_dump_ioa_type_data(struct ipr_ioa_cfg *ioa_cfg,
2062                                    struct ipr_driver_dump *driver_dump)
2063 {
2064         struct ipr_inquiry_page3 *ucode_vpd = &ioa_cfg->vpd_cbs->page3_data;
2065
2066         ipr_init_dump_entry_hdr(&driver_dump->ioa_type_entry.hdr);
2067         driver_dump->ioa_type_entry.hdr.len =
2068                 sizeof(struct ipr_dump_ioa_type_entry) -
2069                 sizeof(struct ipr_dump_entry_header);
2070         driver_dump->ioa_type_entry.hdr.data_type = IPR_DUMP_DATA_TYPE_BINARY;
2071         driver_dump->ioa_type_entry.hdr.id = IPR_DUMP_DRIVER_TYPE_ID;
2072         driver_dump->ioa_type_entry.type = ioa_cfg->type;
2073         driver_dump->ioa_type_entry.fw_version = (ucode_vpd->major_release << 24) |
2074                 (ucode_vpd->card_type << 16) | (ucode_vpd->minor_release[0] << 8) |
2075                 ucode_vpd->minor_release[1];
2076         driver_dump->hdr.num_entries++;
2077 }
2078
2079 /**
2080  * ipr_dump_version_data - Fill in the driver version in the dump.
2081  * @ioa_cfg:    ioa config struct
2082  * @driver_dump:        driver dump struct
2083  *
2084  * Return value:
2085  *      nothing
2086  **/
2087 static void ipr_dump_version_data(struct ipr_ioa_cfg *ioa_cfg,
2088                                   struct ipr_driver_dump *driver_dump)
2089 {
2090         ipr_init_dump_entry_hdr(&driver_dump->version_entry.hdr);
2091         driver_dump->version_entry.hdr.len =
2092                 sizeof(struct ipr_dump_version_entry) -
2093                 sizeof(struct ipr_dump_entry_header);
2094         driver_dump->version_entry.hdr.data_type = IPR_DUMP_DATA_TYPE_ASCII;
2095         driver_dump->version_entry.hdr.id = IPR_DUMP_DRIVER_VERSION_ID;
2096         strcpy(driver_dump->version_entry.version, IPR_DRIVER_VERSION);
2097         driver_dump->hdr.num_entries++;
2098 }
2099
2100 /**
2101  * ipr_dump_trace_data - Fill in the IOA trace in the dump.
2102  * @ioa_cfg:    ioa config struct
2103  * @driver_dump:        driver dump struct
2104  *
2105  * Return value:
2106  *      nothing
2107  **/
2108 static void ipr_dump_trace_data(struct ipr_ioa_cfg *ioa_cfg,
2109                                    struct ipr_driver_dump *driver_dump)
2110 {
2111         ipr_init_dump_entry_hdr(&driver_dump->trace_entry.hdr);
2112         driver_dump->trace_entry.hdr.len =
2113                 sizeof(struct ipr_dump_trace_entry) -
2114                 sizeof(struct ipr_dump_entry_header);
2115         driver_dump->trace_entry.hdr.data_type = IPR_DUMP_DATA_TYPE_BINARY;
2116         driver_dump->trace_entry.hdr.id = IPR_DUMP_TRACE_ID;
2117         memcpy(driver_dump->trace_entry.trace, ioa_cfg->trace, IPR_TRACE_SIZE);
2118         driver_dump->hdr.num_entries++;
2119 }
2120
2121 /**
2122  * ipr_dump_location_data - Fill in the IOA location in the dump.
2123  * @ioa_cfg:    ioa config struct
2124  * @driver_dump:        driver dump struct
2125  *
2126  * Return value:
2127  *      nothing
2128  **/
2129 static void ipr_dump_location_data(struct ipr_ioa_cfg *ioa_cfg,
2130                                    struct ipr_driver_dump *driver_dump)
2131 {
2132         ipr_init_dump_entry_hdr(&driver_dump->location_entry.hdr);
2133         driver_dump->location_entry.hdr.len =
2134                 sizeof(struct ipr_dump_location_entry) -
2135                 sizeof(struct ipr_dump_entry_header);
2136         driver_dump->location_entry.hdr.data_type = IPR_DUMP_DATA_TYPE_ASCII;
2137         driver_dump->location_entry.hdr.id = IPR_DUMP_LOCATION_ID;
2138         strcpy(driver_dump->location_entry.location, ioa_cfg->pdev->dev.bus_id);
2139         driver_dump->hdr.num_entries++;
2140 }
2141
2142 /**
2143  * ipr_get_ioa_dump - Perform a dump of the driver and adapter.
2144  * @ioa_cfg:    ioa config struct
2145  * @dump:               dump struct
2146  *
2147  * Return value:
2148  *      nothing
2149  **/
2150 static void ipr_get_ioa_dump(struct ipr_ioa_cfg *ioa_cfg, struct ipr_dump *dump)
2151 {
2152         unsigned long start_addr, sdt_word;
2153         unsigned long lock_flags = 0;
2154         struct ipr_driver_dump *driver_dump = &dump->driver_dump;
2155         struct ipr_ioa_dump *ioa_dump = &dump->ioa_dump;
2156         u32 num_entries, start_off, end_off;
2157         u32 bytes_to_copy, bytes_copied, rc;
2158         struct ipr_sdt *sdt;
2159         int i;
2160
2161         ENTER;
2162
2163         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2164
2165         if (ioa_cfg->sdt_state != GET_DUMP) {
2166                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2167                 return;
2168         }
2169
2170         start_addr = readl(ioa_cfg->ioa_mailbox);
2171
2172         if (!ipr_sdt_is_fmt2(start_addr)) {
2173                 dev_err(&ioa_cfg->pdev->dev,
2174                         "Invalid dump table format: %lx\n", start_addr);
2175                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2176                 return;
2177         }
2178
2179         dev_err(&ioa_cfg->pdev->dev, "Dump of IOA initiated\n");
2180
2181         driver_dump->hdr.eye_catcher = IPR_DUMP_EYE_CATCHER;
2182
2183         /* Initialize the overall dump header */
2184         driver_dump->hdr.len = sizeof(struct ipr_driver_dump);
2185         driver_dump->hdr.num_entries = 1;
2186         driver_dump->hdr.first_entry_offset = sizeof(struct ipr_dump_header);
2187         driver_dump->hdr.status = IPR_DUMP_STATUS_SUCCESS;
2188         driver_dump->hdr.os = IPR_DUMP_OS_LINUX;
2189         driver_dump->hdr.driver_name = IPR_DUMP_DRIVER_NAME;
2190
2191         ipr_dump_version_data(ioa_cfg, driver_dump);
2192         ipr_dump_location_data(ioa_cfg, driver_dump);
2193         ipr_dump_ioa_type_data(ioa_cfg, driver_dump);
2194         ipr_dump_trace_data(ioa_cfg, driver_dump);
2195
2196         /* Update dump_header */
2197         driver_dump->hdr.len += sizeof(struct ipr_dump_entry_header);
2198
2199         /* IOA Dump entry */
2200         ipr_init_dump_entry_hdr(&ioa_dump->hdr);
2201         ioa_dump->format = IPR_SDT_FMT2;
2202         ioa_dump->hdr.len = 0;
2203         ioa_dump->hdr.data_type = IPR_DUMP_DATA_TYPE_BINARY;
2204         ioa_dump->hdr.id = IPR_DUMP_IOA_DUMP_ID;
2205
2206         /* First entries in sdt are actually a list of dump addresses and
2207          lengths to gather the real dump data.  sdt represents the pointer
2208          to the ioa generated dump table.  Dump data will be extracted based
2209          on entries in this table */
2210         sdt = &ioa_dump->sdt;
2211
2212         rc = ipr_get_ldump_data_section(ioa_cfg, start_addr, (__be32 *)sdt,
2213                                         sizeof(struct ipr_sdt) / sizeof(__be32));
2214
2215         /* Smart Dump table is ready to use and the first entry is valid */
2216         if (rc || (be32_to_cpu(sdt->hdr.state) != IPR_FMT2_SDT_READY_TO_USE)) {
2217                 dev_err(&ioa_cfg->pdev->dev,
2218                         "Dump of IOA failed. Dump table not valid: %d, %X.\n",
2219                         rc, be32_to_cpu(sdt->hdr.state));
2220                 driver_dump->hdr.status = IPR_DUMP_STATUS_FAILED;
2221                 ioa_cfg->sdt_state = DUMP_OBTAINED;
2222                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2223                 return;
2224         }
2225
2226         num_entries = be32_to_cpu(sdt->hdr.num_entries_used);
2227
2228         if (num_entries > IPR_NUM_SDT_ENTRIES)
2229                 num_entries = IPR_NUM_SDT_ENTRIES;
2230
2231         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2232
2233         for (i = 0; i < num_entries; i++) {
2234                 if (ioa_dump->hdr.len > IPR_MAX_IOA_DUMP_SIZE) {
2235                         driver_dump->hdr.status = IPR_DUMP_STATUS_QUAL_SUCCESS;
2236                         break;
2237                 }
2238
2239                 if (sdt->entry[i].flags & IPR_SDT_VALID_ENTRY) {
2240                         sdt_word = be32_to_cpu(sdt->entry[i].bar_str_offset);
2241                         start_off = sdt_word & IPR_FMT2_MBX_ADDR_MASK;
2242                         end_off = be32_to_cpu(sdt->entry[i].end_offset);
2243
2244                         if (ipr_sdt_is_fmt2(sdt_word) && sdt_word) {
2245                                 bytes_to_copy = end_off - start_off;
2246                                 if (bytes_to_copy > IPR_MAX_IOA_DUMP_SIZE) {
2247                                         sdt->entry[i].flags &= ~IPR_SDT_VALID_ENTRY;
2248                                         continue;
2249                                 }
2250
2251                                 /* Copy data from adapter to driver buffers */
2252                                 bytes_copied = ipr_sdt_copy(ioa_cfg, sdt_word,
2253                                                             bytes_to_copy);
2254
2255                                 ioa_dump->hdr.len += bytes_copied;
2256
2257                                 if (bytes_copied != bytes_to_copy) {
2258                                         driver_dump->hdr.status = IPR_DUMP_STATUS_QUAL_SUCCESS;
2259                                         break;
2260                                 }
2261                         }
2262                 }
2263         }
2264
2265         dev_err(&ioa_cfg->pdev->dev, "Dump of IOA completed.\n");
2266
2267         /* Update dump_header */
2268         driver_dump->hdr.len += ioa_dump->hdr.len;
2269         wmb();
2270         ioa_cfg->sdt_state = DUMP_OBTAINED;
2271         LEAVE;
2272 }
2273
2274 #else
2275 #define ipr_get_ioa_dump(ioa_cfg, dump) do { } while(0)
2276 #endif
2277
2278 /**
2279  * ipr_release_dump - Free adapter dump memory
2280  * @kref:       kref struct
2281  *
2282  * Return value:
2283  *      nothing
2284  **/
2285 static void ipr_release_dump(struct kref *kref)
2286 {
2287         struct ipr_dump *dump = container_of(kref,struct ipr_dump,kref);
2288         struct ipr_ioa_cfg *ioa_cfg = dump->ioa_cfg;
2289         unsigned long lock_flags = 0;
2290         int i;
2291
2292         ENTER;
2293         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2294         ioa_cfg->dump = NULL;
2295         ioa_cfg->sdt_state = INACTIVE;
2296         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2297
2298         for (i = 0; i < dump->ioa_dump.next_page_index; i++)
2299                 free_page((unsigned long) dump->ioa_dump.ioa_data[i]);
2300
2301         kfree(dump);
2302         LEAVE;
2303 }
2304
2305 /**
2306  * ipr_worker_thread - Worker thread
2307  * @work:               ioa config struct
2308  *
2309  * Called at task level from a work thread. This function takes care
2310  * of adding and removing device from the mid-layer as configuration
2311  * changes are detected by the adapter.
2312  *
2313  * Return value:
2314  *      nothing
2315  **/
2316 static void ipr_worker_thread(struct work_struct *work)
2317 {
2318         unsigned long lock_flags;
2319         struct ipr_resource_entry *res;
2320         struct scsi_device *sdev;
2321         struct ipr_dump *dump;
2322         struct ipr_ioa_cfg *ioa_cfg =
2323                 container_of(work, struct ipr_ioa_cfg, work_q);
2324         u8 bus, target, lun;
2325         int did_work;
2326
2327         ENTER;
2328         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2329
2330         if (ioa_cfg->sdt_state == GET_DUMP) {
2331                 dump = ioa_cfg->dump;
2332                 if (!dump) {
2333                         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2334                         return;
2335                 }
2336                 kref_get(&dump->kref);
2337                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2338                 ipr_get_ioa_dump(ioa_cfg, dump);
2339                 kref_put(&dump->kref, ipr_release_dump);
2340
2341                 spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2342                 if (ioa_cfg->sdt_state == DUMP_OBTAINED)
2343                         ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
2344                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2345                 return;
2346         }
2347
2348 restart:
2349         do {
2350                 did_work = 0;
2351                 if (!ioa_cfg->allow_cmds || !ioa_cfg->allow_ml_add_del) {
2352                         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2353                         return;
2354                 }
2355
2356                 list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
2357                         if (res->del_from_ml && res->sdev) {
2358                                 did_work = 1;
2359                                 sdev = res->sdev;
2360                                 if (!scsi_device_get(sdev)) {
2361                                         list_move_tail(&res->queue, &ioa_cfg->free_res_q);
2362                                         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2363                                         scsi_remove_device(sdev);
2364                                         scsi_device_put(sdev);
2365                                         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2366                                 }
2367                                 break;
2368                         }
2369                 }
2370         } while(did_work);
2371
2372         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
2373                 if (res->add_to_ml) {
2374                         bus = res->cfgte.res_addr.bus;
2375                         target = res->cfgte.res_addr.target;
2376                         lun = res->cfgte.res_addr.lun;
2377                         res->add_to_ml = 0;
2378                         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2379                         scsi_add_device(ioa_cfg->host, bus, target, lun);
2380                         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2381                         goto restart;
2382                 }
2383         }
2384
2385         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2386         kobject_uevent(&ioa_cfg->host->shost_classdev.kobj, KOBJ_CHANGE);
2387         LEAVE;
2388 }
2389
2390 #ifdef CONFIG_SCSI_IPR_TRACE
2391 /**
2392  * ipr_read_trace - Dump the adapter trace
2393  * @kobj:               kobject struct
2394  * @buf:                buffer
2395  * @off:                offset
2396  * @count:              buffer size
2397  *
2398  * Return value:
2399  *      number of bytes printed to buffer
2400  **/
2401 static ssize_t ipr_read_trace(struct kobject *kobj, char *buf,
2402                               loff_t off, size_t count)
2403 {
2404         struct class_device *cdev = container_of(kobj,struct class_device,kobj);
2405         struct Scsi_Host *shost = class_to_shost(cdev);
2406         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2407         unsigned long lock_flags = 0;
2408         int size = IPR_TRACE_SIZE;
2409         char *src = (char *)ioa_cfg->trace;
2410
2411         if (off > size)
2412                 return 0;
2413         if (off + count > size) {
2414                 size -= off;
2415                 count = size;
2416         }
2417
2418         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2419         memcpy(buf, &src[off], count);
2420         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2421         return count;
2422 }
2423
2424 static struct bin_attribute ipr_trace_attr = {
2425         .attr = {
2426                 .name = "trace",
2427                 .mode = S_IRUGO,
2428         },
2429         .size = 0,
2430         .read = ipr_read_trace,
2431 };
2432 #endif
2433
2434 static const struct {
2435         enum ipr_cache_state state;
2436         char *name;
2437 } cache_state [] = {
2438         { CACHE_NONE, "none" },
2439         { CACHE_DISABLED, "disabled" },
2440         { CACHE_ENABLED, "enabled" }
2441 };
2442
2443 /**
2444  * ipr_show_write_caching - Show the write caching attribute
2445  * @class_dev:  class device struct
2446  * @buf:                buffer
2447  *
2448  * Return value:
2449  *      number of bytes printed to buffer
2450  **/
2451 static ssize_t ipr_show_write_caching(struct class_device *class_dev, char *buf)
2452 {
2453         struct Scsi_Host *shost = class_to_shost(class_dev);
2454         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2455         unsigned long lock_flags = 0;
2456         int i, len = 0;
2457
2458         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2459         for (i = 0; i < ARRAY_SIZE(cache_state); i++) {
2460                 if (cache_state[i].state == ioa_cfg->cache_state) {
2461                         len = snprintf(buf, PAGE_SIZE, "%s\n", cache_state[i].name);
2462                         break;
2463                 }
2464         }
2465         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2466         return len;
2467 }
2468
2469
2470 /**
2471  * ipr_store_write_caching - Enable/disable adapter write cache
2472  * @class_dev:  class_device struct
2473  * @buf:                buffer
2474  * @count:              buffer size
2475  *
2476  * This function will enable/disable adapter write cache.
2477  *
2478  * Return value:
2479  *      count on success / other on failure
2480  **/
2481 static ssize_t ipr_store_write_caching(struct class_device *class_dev,
2482                                         const char *buf, size_t count)
2483 {
2484         struct Scsi_Host *shost = class_to_shost(class_dev);
2485         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2486         unsigned long lock_flags = 0;
2487         enum ipr_cache_state new_state = CACHE_INVALID;
2488         int i;
2489
2490         if (!capable(CAP_SYS_ADMIN))
2491                 return -EACCES;
2492         if (ioa_cfg->cache_state == CACHE_NONE)
2493                 return -EINVAL;
2494
2495         for (i = 0; i < ARRAY_SIZE(cache_state); i++) {
2496                 if (!strncmp(cache_state[i].name, buf, strlen(cache_state[i].name))) {
2497                         new_state = cache_state[i].state;
2498                         break;
2499                 }
2500         }
2501
2502         if (new_state != CACHE_DISABLED && new_state != CACHE_ENABLED)
2503                 return -EINVAL;
2504
2505         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2506         if (ioa_cfg->cache_state == new_state) {
2507                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2508                 return count;
2509         }
2510
2511         ioa_cfg->cache_state = new_state;
2512         dev_info(&ioa_cfg->pdev->dev, "%s adapter write cache.\n",
2513                  new_state == CACHE_ENABLED ? "Enabling" : "Disabling");
2514         if (!ioa_cfg->in_reset_reload)
2515                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NORMAL);
2516         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2517         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2518
2519         return count;
2520 }
2521
2522 static struct class_device_attribute ipr_ioa_cache_attr = {
2523         .attr = {
2524                 .name =         "write_cache",
2525                 .mode =         S_IRUGO | S_IWUSR,
2526         },
2527         .show = ipr_show_write_caching,
2528         .store = ipr_store_write_caching
2529 };
2530
2531 /**
2532  * ipr_show_fw_version - Show the firmware version
2533  * @class_dev:  class device struct
2534  * @buf:                buffer
2535  *
2536  * Return value:
2537  *      number of bytes printed to buffer
2538  **/
2539 static ssize_t ipr_show_fw_version(struct class_device *class_dev, char *buf)
2540 {
2541         struct Scsi_Host *shost = class_to_shost(class_dev);
2542         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2543         struct ipr_inquiry_page3 *ucode_vpd = &ioa_cfg->vpd_cbs->page3_data;
2544         unsigned long lock_flags = 0;
2545         int len;
2546
2547         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2548         len = snprintf(buf, PAGE_SIZE, "%02X%02X%02X%02X\n",
2549                        ucode_vpd->major_release, ucode_vpd->card_type,
2550                        ucode_vpd->minor_release[0],
2551                        ucode_vpd->minor_release[1]);
2552         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2553         return len;
2554 }
2555
2556 static struct class_device_attribute ipr_fw_version_attr = {
2557         .attr = {
2558                 .name =         "fw_version",
2559                 .mode =         S_IRUGO,
2560         },
2561         .show = ipr_show_fw_version,
2562 };
2563
2564 /**
2565  * ipr_show_log_level - Show the adapter's error logging level
2566  * @class_dev:  class device struct
2567  * @buf:                buffer
2568  *
2569  * Return value:
2570  *      number of bytes printed to buffer
2571  **/
2572 static ssize_t ipr_show_log_level(struct class_device *class_dev, char *buf)
2573 {
2574         struct Scsi_Host *shost = class_to_shost(class_dev);
2575         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2576         unsigned long lock_flags = 0;
2577         int len;
2578
2579         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2580         len = snprintf(buf, PAGE_SIZE, "%d\n", ioa_cfg->log_level);
2581         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2582         return len;
2583 }
2584
2585 /**
2586  * ipr_store_log_level - Change the adapter's error logging level
2587  * @class_dev:  class device struct
2588  * @buf:                buffer
2589  *
2590  * Return value:
2591  *      number of bytes printed to buffer
2592  **/
2593 static ssize_t ipr_store_log_level(struct class_device *class_dev,
2594                                    const char *buf, size_t count)
2595 {
2596         struct Scsi_Host *shost = class_to_shost(class_dev);
2597         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2598         unsigned long lock_flags = 0;
2599
2600         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2601         ioa_cfg->log_level = simple_strtoul(buf, NULL, 10);
2602         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2603         return strlen(buf);
2604 }
2605
2606 static struct class_device_attribute ipr_log_level_attr = {
2607         .attr = {
2608                 .name =         "log_level",
2609                 .mode =         S_IRUGO | S_IWUSR,
2610         },
2611         .show = ipr_show_log_level,
2612         .store = ipr_store_log_level
2613 };
2614
2615 /**
2616  * ipr_store_diagnostics - IOA Diagnostics interface
2617  * @class_dev:  class_device struct
2618  * @buf:                buffer
2619  * @count:              buffer size
2620  *
2621  * This function will reset the adapter and wait a reasonable
2622  * amount of time for any errors that the adapter might log.
2623  *
2624  * Return value:
2625  *      count on success / other on failure
2626  **/
2627 static ssize_t ipr_store_diagnostics(struct class_device *class_dev,
2628                                      const char *buf, size_t count)
2629 {
2630         struct Scsi_Host *shost = class_to_shost(class_dev);
2631         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2632         unsigned long lock_flags = 0;
2633         int rc = count;
2634
2635         if (!capable(CAP_SYS_ADMIN))
2636                 return -EACCES;
2637
2638         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2639         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2640         ioa_cfg->errors_logged = 0;
2641         ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NORMAL);
2642
2643         if (ioa_cfg->in_reset_reload) {
2644                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2645                 wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2646
2647                 /* Wait for a second for any errors to be logged */
2648                 msleep(1000);
2649         } else {
2650                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2651                 return -EIO;
2652         }
2653
2654         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2655         if (ioa_cfg->in_reset_reload || ioa_cfg->errors_logged)
2656                 rc = -EIO;
2657         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2658
2659         return rc;
2660 }
2661
2662 static struct class_device_attribute ipr_diagnostics_attr = {
2663         .attr = {
2664                 .name =         "run_diagnostics",
2665                 .mode =         S_IWUSR,
2666         },
2667         .store = ipr_store_diagnostics
2668 };
2669
2670 /**
2671  * ipr_show_adapter_state - Show the adapter's state
2672  * @class_dev:  class device struct
2673  * @buf:                buffer
2674  *
2675  * Return value:
2676  *      number of bytes printed to buffer
2677  **/
2678 static ssize_t ipr_show_adapter_state(struct class_device *class_dev, char *buf)
2679 {
2680         struct Scsi_Host *shost = class_to_shost(class_dev);
2681         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2682         unsigned long lock_flags = 0;
2683         int len;
2684
2685         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2686         if (ioa_cfg->ioa_is_dead)
2687                 len = snprintf(buf, PAGE_SIZE, "offline\n");
2688         else
2689                 len = snprintf(buf, PAGE_SIZE, "online\n");
2690         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2691         return len;
2692 }
2693
2694 /**
2695  * ipr_store_adapter_state - Change adapter state
2696  * @class_dev:  class_device struct
2697  * @buf:                buffer
2698  * @count:              buffer size
2699  *
2700  * This function will change the adapter's state.
2701  *
2702  * Return value:
2703  *      count on success / other on failure
2704  **/
2705 static ssize_t ipr_store_adapter_state(struct class_device *class_dev,
2706                                        const char *buf, size_t count)
2707 {
2708         struct Scsi_Host *shost = class_to_shost(class_dev);
2709         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2710         unsigned long lock_flags;
2711         int result = count;
2712
2713         if (!capable(CAP_SYS_ADMIN))
2714                 return -EACCES;
2715
2716         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2717         if (ioa_cfg->ioa_is_dead && !strncmp(buf, "online", 6)) {
2718                 ioa_cfg->ioa_is_dead = 0;
2719                 ioa_cfg->reset_retries = 0;
2720                 ioa_cfg->in_ioa_bringdown = 0;
2721                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
2722         }
2723         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2724         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2725
2726         return result;
2727 }
2728
2729 static struct class_device_attribute ipr_ioa_state_attr = {
2730         .attr = {
2731                 .name =         "state",
2732                 .mode =         S_IRUGO | S_IWUSR,
2733         },
2734         .show = ipr_show_adapter_state,
2735         .store = ipr_store_adapter_state
2736 };
2737
2738 /**
2739  * ipr_store_reset_adapter - Reset the adapter
2740  * @class_dev:  class_device struct
2741  * @buf:                buffer
2742  * @count:              buffer size
2743  *
2744  * This function will reset the adapter.
2745  *
2746  * Return value:
2747  *      count on success / other on failure
2748  **/
2749 static ssize_t ipr_store_reset_adapter(struct class_device *class_dev,
2750                                        const char *buf, size_t count)
2751 {
2752         struct Scsi_Host *shost = class_to_shost(class_dev);
2753         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
2754         unsigned long lock_flags;
2755         int result = count;
2756
2757         if (!capable(CAP_SYS_ADMIN))
2758                 return -EACCES;
2759
2760         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2761         if (!ioa_cfg->in_reset_reload)
2762                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NORMAL);
2763         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2764         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2765
2766         return result;
2767 }
2768
2769 static struct class_device_attribute ipr_ioa_reset_attr = {
2770         .attr = {
2771                 .name =         "reset_host",
2772                 .mode =         S_IWUSR,
2773         },
2774         .store = ipr_store_reset_adapter
2775 };
2776
2777 /**
2778  * ipr_alloc_ucode_buffer - Allocates a microcode download buffer
2779  * @buf_len:            buffer length
2780  *
2781  * Allocates a DMA'able buffer in chunks and assembles a scatter/gather
2782  * list to use for microcode download
2783  *
2784  * Return value:
2785  *      pointer to sglist / NULL on failure
2786  **/
2787 static struct ipr_sglist *ipr_alloc_ucode_buffer(int buf_len)
2788 {
2789         int sg_size, order, bsize_elem, num_elem, i, j;
2790         struct ipr_sglist *sglist;
2791         struct scatterlist *scatterlist;
2792         struct page *page;
2793
2794         /* Get the minimum size per scatter/gather element */
2795         sg_size = buf_len / (IPR_MAX_SGLIST - 1);
2796
2797         /* Get the actual size per element */
2798         order = get_order(sg_size);
2799
2800         /* Determine the actual number of bytes per element */
2801         bsize_elem = PAGE_SIZE * (1 << order);
2802
2803         /* Determine the actual number of sg entries needed */
2804         if (buf_len % bsize_elem)
2805                 num_elem = (buf_len / bsize_elem) + 1;
2806         else
2807                 num_elem = buf_len / bsize_elem;
2808
2809         /* Allocate a scatter/gather list for the DMA */
2810         sglist = kzalloc(sizeof(struct ipr_sglist) +
2811                          (sizeof(struct scatterlist) * (num_elem - 1)),
2812                          GFP_KERNEL);
2813
2814         if (sglist == NULL) {
2815                 ipr_trace;
2816                 return NULL;
2817         }
2818
2819         scatterlist = sglist->scatterlist;
2820
2821         sglist->order = order;
2822         sglist->num_sg = num_elem;
2823
2824         /* Allocate a bunch of sg elements */
2825         for (i = 0; i < num_elem; i++) {
2826                 page = alloc_pages(GFP_KERNEL, order);
2827                 if (!page) {
2828                         ipr_trace;
2829
2830                         /* Free up what we already allocated */
2831                         for (j = i - 1; j >= 0; j--)
2832                                 __free_pages(scatterlist[j].page, order);
2833                         kfree(sglist);
2834                         return NULL;
2835                 }
2836
2837                 scatterlist[i].page = page;
2838         }
2839
2840         return sglist;
2841 }
2842
2843 /**
2844  * ipr_free_ucode_buffer - Frees a microcode download buffer
2845  * @p_dnld:             scatter/gather list pointer
2846  *
2847  * Free a DMA'able ucode download buffer previously allocated with
2848  * ipr_alloc_ucode_buffer
2849  *
2850  * Return value:
2851  *      nothing
2852  **/
2853 static void ipr_free_ucode_buffer(struct ipr_sglist *sglist)
2854 {
2855         int i;
2856
2857         for (i = 0; i < sglist->num_sg; i++)
2858                 __free_pages(sglist->scatterlist[i].page, sglist->order);
2859
2860         kfree(sglist);
2861 }
2862
2863 /**
2864  * ipr_copy_ucode_buffer - Copy user buffer to kernel buffer
2865  * @sglist:             scatter/gather list pointer
2866  * @buffer:             buffer pointer
2867  * @len:                buffer length
2868  *
2869  * Copy a microcode image from a user buffer into a buffer allocated by
2870  * ipr_alloc_ucode_buffer
2871  *
2872  * Return value:
2873  *      0 on success / other on failure
2874  **/
2875 static int ipr_copy_ucode_buffer(struct ipr_sglist *sglist,
2876                                  u8 *buffer, u32 len)
2877 {
2878         int bsize_elem, i, result = 0;
2879         struct scatterlist *scatterlist;
2880         void *kaddr;
2881
2882         /* Determine the actual number of bytes per element */
2883         bsize_elem = PAGE_SIZE * (1 << sglist->order);
2884
2885         scatterlist = sglist->scatterlist;
2886
2887         for (i = 0; i < (len / bsize_elem); i++, buffer += bsize_elem) {
2888                 kaddr = kmap(scatterlist[i].page);
2889                 memcpy(kaddr, buffer, bsize_elem);
2890                 kunmap(scatterlist[i].page);
2891
2892                 scatterlist[i].length = bsize_elem;
2893
2894                 if (result != 0) {
2895                         ipr_trace;
2896                         return result;
2897                 }
2898         }
2899
2900         if (len % bsize_elem) {
2901                 kaddr = kmap(scatterlist[i].page);
2902                 memcpy(kaddr, buffer, len % bsize_elem);
2903                 kunmap(scatterlist[i].page);
2904
2905                 scatterlist[i].length = len % bsize_elem;
2906         }
2907
2908         sglist->buffer_len = len;
2909         return result;
2910 }
2911
2912 /**
2913  * ipr_build_ucode_ioadl - Build a microcode download IOADL
2914  * @ipr_cmd:    ipr command struct
2915  * @sglist:             scatter/gather list
2916  *
2917  * Builds a microcode download IOA data list (IOADL).
2918  *
2919  **/
2920 static void ipr_build_ucode_ioadl(struct ipr_cmnd *ipr_cmd,
2921                                   struct ipr_sglist *sglist)
2922 {
2923         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
2924         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
2925         struct scatterlist *scatterlist = sglist->scatterlist;
2926         int i;
2927
2928         ipr_cmd->dma_use_sg = sglist->num_dma_sg;
2929         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
2930         ioarcb->write_data_transfer_length = cpu_to_be32(sglist->buffer_len);
2931         ioarcb->write_ioadl_len =
2932                 cpu_to_be32(sizeof(struct ipr_ioadl_desc) * ipr_cmd->dma_use_sg);
2933
2934         for (i = 0; i < ipr_cmd->dma_use_sg; i++) {
2935                 ioadl[i].flags_and_data_len =
2936                         cpu_to_be32(IPR_IOADL_FLAGS_WRITE | sg_dma_len(&scatterlist[i]));
2937                 ioadl[i].address =
2938                         cpu_to_be32(sg_dma_address(&scatterlist[i]));
2939         }
2940
2941         ioadl[i-1].flags_and_data_len |=
2942                 cpu_to_be32(IPR_IOADL_FLAGS_LAST);
2943 }
2944
2945 /**
2946  * ipr_update_ioa_ucode - Update IOA's microcode
2947  * @ioa_cfg:    ioa config struct
2948  * @sglist:             scatter/gather list
2949  *
2950  * Initiate an adapter reset to update the IOA's microcode
2951  *
2952  * Return value:
2953  *      0 on success / -EIO on failure
2954  **/
2955 static int ipr_update_ioa_ucode(struct ipr_ioa_cfg *ioa_cfg,
2956                                 struct ipr_sglist *sglist)
2957 {
2958         unsigned long lock_flags;
2959
2960         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2961
2962         if (ioa_cfg->ucode_sglist) {
2963                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2964                 dev_err(&ioa_cfg->pdev->dev,
2965                         "Microcode download already in progress\n");
2966                 return -EIO;
2967         }
2968
2969         sglist->num_dma_sg = pci_map_sg(ioa_cfg->pdev, sglist->scatterlist,
2970                                         sglist->num_sg, DMA_TO_DEVICE);
2971
2972         if (!sglist->num_dma_sg) {
2973                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2974                 dev_err(&ioa_cfg->pdev->dev,
2975                         "Failed to map microcode download buffer!\n");
2976                 return -EIO;
2977         }
2978
2979         ioa_cfg->ucode_sglist = sglist;
2980         ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NORMAL);
2981         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2982         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
2983
2984         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
2985         ioa_cfg->ucode_sglist = NULL;
2986         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
2987         return 0;
2988 }
2989
2990 /**
2991  * ipr_store_update_fw - Update the firmware on the adapter
2992  * @class_dev:  class_device struct
2993  * @buf:                buffer
2994  * @count:              buffer size
2995  *
2996  * This function will update the firmware on the adapter.
2997  *
2998  * Return value:
2999  *      count on success / other on failure
3000  **/
3001 static ssize_t ipr_store_update_fw(struct class_device *class_dev,
3002                                        const char *buf, size_t count)
3003 {
3004         struct Scsi_Host *shost = class_to_shost(class_dev);
3005         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
3006         struct ipr_ucode_image_header *image_hdr;
3007         const struct firmware *fw_entry;
3008         struct ipr_sglist *sglist;
3009         char fname[100];
3010         char *src;
3011         int len, result, dnld_size;
3012
3013         if (!capable(CAP_SYS_ADMIN))
3014                 return -EACCES;
3015
3016         len = snprintf(fname, 99, "%s", buf);
3017         fname[len-1] = '\0';
3018
3019         if(request_firmware(&fw_entry, fname, &ioa_cfg->pdev->dev)) {
3020                 dev_err(&ioa_cfg->pdev->dev, "Firmware file %s not found\n", fname);
3021                 return -EIO;
3022         }
3023
3024         image_hdr = (struct ipr_ucode_image_header *)fw_entry->data;
3025
3026         if (be32_to_cpu(image_hdr->header_length) > fw_entry->size ||
3027             (ioa_cfg->vpd_cbs->page3_data.card_type &&
3028              ioa_cfg->vpd_cbs->page3_data.card_type != image_hdr->card_type)) {
3029                 dev_err(&ioa_cfg->pdev->dev, "Invalid microcode buffer\n");
3030                 release_firmware(fw_entry);
3031                 return -EINVAL;
3032         }
3033
3034         src = (u8 *)image_hdr + be32_to_cpu(image_hdr->header_length);
3035         dnld_size = fw_entry->size - be32_to_cpu(image_hdr->header_length);
3036         sglist = ipr_alloc_ucode_buffer(dnld_size);
3037
3038         if (!sglist) {
3039                 dev_err(&ioa_cfg->pdev->dev, "Microcode buffer allocation failed\n");
3040                 release_firmware(fw_entry);
3041                 return -ENOMEM;
3042         }
3043
3044         result = ipr_copy_ucode_buffer(sglist, src, dnld_size);
3045
3046         if (result) {
3047                 dev_err(&ioa_cfg->pdev->dev,
3048                         "Microcode buffer copy to DMA buffer failed\n");
3049                 goto out;
3050         }
3051
3052         result = ipr_update_ioa_ucode(ioa_cfg, sglist);
3053
3054         if (!result)
3055                 result = count;
3056 out:
3057         ipr_free_ucode_buffer(sglist);
3058         release_firmware(fw_entry);
3059         return result;
3060 }
3061
3062 static struct class_device_attribute ipr_update_fw_attr = {
3063         .attr = {
3064                 .name =         "update_fw",
3065                 .mode =         S_IWUSR,
3066         },
3067         .store = ipr_store_update_fw
3068 };
3069
3070 static struct class_device_attribute *ipr_ioa_attrs[] = {
3071         &ipr_fw_version_attr,
3072         &ipr_log_level_attr,
3073         &ipr_diagnostics_attr,
3074         &ipr_ioa_state_attr,
3075         &ipr_ioa_reset_attr,
3076         &ipr_update_fw_attr,
3077         &ipr_ioa_cache_attr,
3078         NULL,
3079 };
3080
3081 #ifdef CONFIG_SCSI_IPR_DUMP
3082 /**
3083  * ipr_read_dump - Dump the adapter
3084  * @kobj:               kobject struct
3085  * @buf:                buffer
3086  * @off:                offset
3087  * @count:              buffer size
3088  *
3089  * Return value:
3090  *      number of bytes printed to buffer
3091  **/
3092 static ssize_t ipr_read_dump(struct kobject *kobj, char *buf,
3093                               loff_t off, size_t count)
3094 {
3095         struct class_device *cdev = container_of(kobj,struct class_device,kobj);
3096         struct Scsi_Host *shost = class_to_shost(cdev);
3097         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
3098         struct ipr_dump *dump;
3099         unsigned long lock_flags = 0;
3100         char *src;
3101         int len;
3102         size_t rc = count;
3103
3104         if (!capable(CAP_SYS_ADMIN))
3105                 return -EACCES;
3106
3107         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3108         dump = ioa_cfg->dump;
3109
3110         if (ioa_cfg->sdt_state != DUMP_OBTAINED || !dump) {
3111                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3112                 return 0;
3113         }
3114         kref_get(&dump->kref);
3115         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3116
3117         if (off > dump->driver_dump.hdr.len) {
3118                 kref_put(&dump->kref, ipr_release_dump);
3119                 return 0;
3120         }
3121
3122         if (off + count > dump->driver_dump.hdr.len) {
3123                 count = dump->driver_dump.hdr.len - off;
3124                 rc = count;
3125         }
3126
3127         if (count && off < sizeof(dump->driver_dump)) {
3128                 if (off + count > sizeof(dump->driver_dump))
3129                         len = sizeof(dump->driver_dump) - off;
3130                 else
3131                         len = count;
3132                 src = (u8 *)&dump->driver_dump + off;
3133                 memcpy(buf, src, len);
3134                 buf += len;
3135                 off += len;
3136                 count -= len;
3137         }
3138
3139         off -= sizeof(dump->driver_dump);
3140
3141         if (count && off < offsetof(struct ipr_ioa_dump, ioa_data)) {
3142                 if (off + count > offsetof(struct ipr_ioa_dump, ioa_data))
3143                         len = offsetof(struct ipr_ioa_dump, ioa_data) - off;
3144                 else
3145                         len = count;
3146                 src = (u8 *)&dump->ioa_dump + off;
3147                 memcpy(buf, src, len);
3148                 buf += len;
3149                 off += len;
3150                 count -= len;
3151         }
3152
3153         off -= offsetof(struct ipr_ioa_dump, ioa_data);
3154
3155         while (count) {
3156                 if ((off & PAGE_MASK) != ((off + count) & PAGE_MASK))
3157                         len = PAGE_ALIGN(off) - off;
3158                 else
3159                         len = count;
3160                 src = (u8 *)dump->ioa_dump.ioa_data[(off & PAGE_MASK) >> PAGE_SHIFT];
3161                 src += off & ~PAGE_MASK;
3162                 memcpy(buf, src, len);
3163                 buf += len;
3164                 off += len;
3165                 count -= len;
3166         }
3167
3168         kref_put(&dump->kref, ipr_release_dump);
3169         return rc;
3170 }
3171
3172 /**
3173  * ipr_alloc_dump - Prepare for adapter dump
3174  * @ioa_cfg:    ioa config struct
3175  *
3176  * Return value:
3177  *      0 on success / other on failure
3178  **/
3179 static int ipr_alloc_dump(struct ipr_ioa_cfg *ioa_cfg)
3180 {
3181         struct ipr_dump *dump;
3182         unsigned long lock_flags = 0;
3183
3184         dump = kzalloc(sizeof(struct ipr_dump), GFP_KERNEL);
3185
3186         if (!dump) {
3187                 ipr_err("Dump memory allocation failed\n");
3188                 return -ENOMEM;
3189         }
3190
3191         kref_init(&dump->kref);
3192         dump->ioa_cfg = ioa_cfg;
3193
3194         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3195
3196         if (INACTIVE != ioa_cfg->sdt_state) {
3197                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3198                 kfree(dump);
3199                 return 0;
3200         }
3201
3202         ioa_cfg->dump = dump;
3203         ioa_cfg->sdt_state = WAIT_FOR_DUMP;
3204         if (ioa_cfg->ioa_is_dead && !ioa_cfg->dump_taken) {
3205                 ioa_cfg->dump_taken = 1;
3206                 schedule_work(&ioa_cfg->work_q);
3207         }
3208         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3209
3210         return 0;
3211 }
3212
3213 /**
3214  * ipr_free_dump - Free adapter dump memory
3215  * @ioa_cfg:    ioa config struct
3216  *
3217  * Return value:
3218  *      0 on success / other on failure
3219  **/
3220 static int ipr_free_dump(struct ipr_ioa_cfg *ioa_cfg)
3221 {
3222         struct ipr_dump *dump;
3223         unsigned long lock_flags = 0;
3224
3225         ENTER;
3226
3227         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3228         dump = ioa_cfg->dump;
3229         if (!dump) {
3230                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3231                 return 0;
3232         }
3233
3234         ioa_cfg->dump = NULL;
3235         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3236
3237         kref_put(&dump->kref, ipr_release_dump);
3238
3239         LEAVE;
3240         return 0;
3241 }
3242
3243 /**
3244  * ipr_write_dump - Setup dump state of adapter
3245  * @kobj:               kobject struct
3246  * @buf:                buffer
3247  * @off:                offset
3248  * @count:              buffer size
3249  *
3250  * Return value:
3251  *      number of bytes printed to buffer
3252  **/
3253 static ssize_t ipr_write_dump(struct kobject *kobj, char *buf,
3254                               loff_t off, size_t count)
3255 {
3256         struct class_device *cdev = container_of(kobj,struct class_device,kobj);
3257         struct Scsi_Host *shost = class_to_shost(cdev);
3258         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)shost->hostdata;
3259         int rc;
3260
3261         if (!capable(CAP_SYS_ADMIN))
3262                 return -EACCES;
3263
3264         if (buf[0] == '1')
3265                 rc = ipr_alloc_dump(ioa_cfg);
3266         else if (buf[0] == '0')
3267                 rc = ipr_free_dump(ioa_cfg);
3268         else
3269                 return -EINVAL;
3270
3271         if (rc)
3272                 return rc;
3273         else
3274                 return count;
3275 }
3276
3277 static struct bin_attribute ipr_dump_attr = {
3278         .attr = {
3279                 .name = "dump",
3280                 .mode = S_IRUSR | S_IWUSR,
3281         },
3282         .size = 0,
3283         .read = ipr_read_dump,
3284         .write = ipr_write_dump
3285 };
3286 #else
3287 static int ipr_free_dump(struct ipr_ioa_cfg *ioa_cfg) { return 0; };
3288 #endif
3289
3290 /**
3291  * ipr_change_queue_depth - Change the device's queue depth
3292  * @sdev:       scsi device struct
3293  * @qdepth:     depth to set
3294  *
3295  * Return value:
3296  *      actual depth set
3297  **/
3298 static int ipr_change_queue_depth(struct scsi_device *sdev, int qdepth)
3299 {
3300         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)sdev->host->hostdata;
3301         struct ipr_resource_entry *res;
3302         unsigned long lock_flags = 0;
3303
3304         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3305         res = (struct ipr_resource_entry *)sdev->hostdata;
3306
3307         if (res && ipr_is_gata(res) && qdepth > IPR_MAX_CMD_PER_ATA_LUN)
3308                 qdepth = IPR_MAX_CMD_PER_ATA_LUN;
3309         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3310
3311         scsi_adjust_queue_depth(sdev, scsi_get_tag_type(sdev), qdepth);
3312         return sdev->queue_depth;
3313 }
3314
3315 /**
3316  * ipr_change_queue_type - Change the device's queue type
3317  * @dsev:               scsi device struct
3318  * @tag_type:   type of tags to use
3319  *
3320  * Return value:
3321  *      actual queue type set
3322  **/
3323 static int ipr_change_queue_type(struct scsi_device *sdev, int tag_type)
3324 {
3325         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)sdev->host->hostdata;
3326         struct ipr_resource_entry *res;
3327         unsigned long lock_flags = 0;
3328
3329         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3330         res = (struct ipr_resource_entry *)sdev->hostdata;
3331
3332         if (res) {
3333                 if (ipr_is_gscsi(res) && sdev->tagged_supported) {
3334                         /*
3335                          * We don't bother quiescing the device here since the
3336                          * adapter firmware does it for us.
3337                          */
3338                         scsi_set_tag_type(sdev, tag_type);
3339
3340                         if (tag_type)
3341                                 scsi_activate_tcq(sdev, sdev->queue_depth);
3342                         else
3343                                 scsi_deactivate_tcq(sdev, sdev->queue_depth);
3344                 } else
3345                         tag_type = 0;
3346         } else
3347                 tag_type = 0;
3348
3349         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3350         return tag_type;
3351 }
3352
3353 /**
3354  * ipr_show_adapter_handle - Show the adapter's resource handle for this device
3355  * @dev:        device struct
3356  * @buf:        buffer
3357  *
3358  * Return value:
3359  *      number of bytes printed to buffer
3360  **/
3361 static ssize_t ipr_show_adapter_handle(struct device *dev, struct device_attribute *attr, char *buf)
3362 {
3363         struct scsi_device *sdev = to_scsi_device(dev);
3364         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)sdev->host->hostdata;
3365         struct ipr_resource_entry *res;
3366         unsigned long lock_flags = 0;
3367         ssize_t len = -ENXIO;
3368
3369         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3370         res = (struct ipr_resource_entry *)sdev->hostdata;
3371         if (res)
3372                 len = snprintf(buf, PAGE_SIZE, "%08X\n", res->cfgte.res_handle);
3373         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3374         return len;
3375 }
3376
3377 static struct device_attribute ipr_adapter_handle_attr = {
3378         .attr = {
3379                 .name =         "adapter_handle",
3380                 .mode =         S_IRUSR,
3381         },
3382         .show = ipr_show_adapter_handle
3383 };
3384
3385 static struct device_attribute *ipr_dev_attrs[] = {
3386         &ipr_adapter_handle_attr,
3387         NULL,
3388 };
3389
3390 /**
3391  * ipr_biosparam - Return the HSC mapping
3392  * @sdev:                       scsi device struct
3393  * @block_device:       block device pointer
3394  * @capacity:           capacity of the device
3395  * @parm:                       Array containing returned HSC values.
3396  *
3397  * This function generates the HSC parms that fdisk uses.
3398  * We want to make sure we return something that places partitions
3399  * on 4k boundaries for best performance with the IOA.
3400  *
3401  * Return value:
3402  *      0 on success
3403  **/
3404 static int ipr_biosparam(struct scsi_device *sdev,
3405                          struct block_device *block_device,
3406                          sector_t capacity, int *parm)
3407 {
3408         int heads, sectors;
3409         sector_t cylinders;
3410
3411         heads = 128;
3412         sectors = 32;
3413
3414         cylinders = capacity;
3415         sector_div(cylinders, (128 * 32));
3416
3417         /* return result */
3418         parm[0] = heads;
3419         parm[1] = sectors;
3420         parm[2] = cylinders;
3421
3422         return 0;
3423 }
3424
3425 /**
3426  * ipr_find_starget - Find target based on bus/target.
3427  * @starget:    scsi target struct
3428  *
3429  * Return value:
3430  *      resource entry pointer if found / NULL if not found
3431  **/
3432 static struct ipr_resource_entry *ipr_find_starget(struct scsi_target *starget)
3433 {
3434         struct Scsi_Host *shost = dev_to_shost(&starget->dev);
3435         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *) shost->hostdata;
3436         struct ipr_resource_entry *res;
3437
3438         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
3439                 if ((res->cfgte.res_addr.bus == starget->channel) &&
3440                     (res->cfgte.res_addr.target == starget->id) &&
3441                     (res->cfgte.res_addr.lun == 0)) {
3442                         return res;
3443                 }
3444         }
3445
3446         return NULL;
3447 }
3448
3449 static struct ata_port_info sata_port_info;
3450
3451 /**
3452  * ipr_target_alloc - Prepare for commands to a SCSI target
3453  * @starget:    scsi target struct
3454  *
3455  * If the device is a SATA device, this function allocates an
3456  * ATA port with libata, else it does nothing.
3457  *
3458  * Return value:
3459  *      0 on success / non-0 on failure
3460  **/
3461 static int ipr_target_alloc(struct scsi_target *starget)
3462 {
3463         struct Scsi_Host *shost = dev_to_shost(&starget->dev);
3464         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *) shost->hostdata;
3465         struct ipr_sata_port *sata_port;
3466         struct ata_port *ap;
3467         struct ipr_resource_entry *res;
3468         unsigned long lock_flags;
3469
3470         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3471         res = ipr_find_starget(starget);
3472         starget->hostdata = NULL;
3473
3474         if (res && ipr_is_gata(res)) {
3475                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3476                 sata_port = kzalloc(sizeof(*sata_port), GFP_KERNEL);
3477                 if (!sata_port)
3478                         return -ENOMEM;
3479
3480                 ap = ata_sas_port_alloc(&ioa_cfg->ata_host, &sata_port_info, shost);
3481                 if (ap) {
3482                         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3483                         sata_port->ioa_cfg = ioa_cfg;
3484                         sata_port->ap = ap;
3485                         sata_port->res = res;
3486
3487                         res->sata_port = sata_port;
3488                         ap->private_data = sata_port;
3489                         starget->hostdata = sata_port;
3490                 } else {
3491                         kfree(sata_port);
3492                         return -ENOMEM;
3493                 }
3494         }
3495         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3496
3497         return 0;
3498 }
3499
3500 /**
3501  * ipr_target_destroy - Destroy a SCSI target
3502  * @starget:    scsi target struct
3503  *
3504  * If the device was a SATA device, this function frees the libata
3505  * ATA port, else it does nothing.
3506  *
3507  **/
3508 static void ipr_target_destroy(struct scsi_target *starget)
3509 {
3510         struct ipr_sata_port *sata_port = starget->hostdata;
3511
3512         if (sata_port) {
3513                 starget->hostdata = NULL;
3514                 ata_sas_port_destroy(sata_port->ap);
3515                 kfree(sata_port);
3516         }
3517 }
3518
3519 /**
3520  * ipr_find_sdev - Find device based on bus/target/lun.
3521  * @sdev:       scsi device struct
3522  *
3523  * Return value:
3524  *      resource entry pointer if found / NULL if not found
3525  **/
3526 static struct ipr_resource_entry *ipr_find_sdev(struct scsi_device *sdev)
3527 {
3528         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *) sdev->host->hostdata;
3529         struct ipr_resource_entry *res;
3530
3531         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
3532                 if ((res->cfgte.res_addr.bus == sdev->channel) &&
3533                     (res->cfgte.res_addr.target == sdev->id) &&
3534                     (res->cfgte.res_addr.lun == sdev->lun))
3535                         return res;
3536         }
3537
3538         return NULL;
3539 }
3540
3541 /**
3542  * ipr_slave_destroy - Unconfigure a SCSI device
3543  * @sdev:       scsi device struct
3544  *
3545  * Return value:
3546  *      nothing
3547  **/
3548 static void ipr_slave_destroy(struct scsi_device *sdev)
3549 {
3550         struct ipr_resource_entry *res;
3551         struct ipr_ioa_cfg *ioa_cfg;
3552         unsigned long lock_flags = 0;
3553
3554         ioa_cfg = (struct ipr_ioa_cfg *) sdev->host->hostdata;
3555
3556         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3557         res = (struct ipr_resource_entry *) sdev->hostdata;
3558         if (res) {
3559                 if (res->sata_port)
3560                         ata_port_disable(res->sata_port->ap);
3561                 sdev->hostdata = NULL;
3562                 res->sdev = NULL;
3563                 res->sata_port = NULL;
3564         }
3565         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3566 }
3567
3568 /**
3569  * ipr_slave_configure - Configure a SCSI device
3570  * @sdev:       scsi device struct
3571  *
3572  * This function configures the specified scsi device.
3573  *
3574  * Return value:
3575  *      0 on success
3576  **/
3577 static int ipr_slave_configure(struct scsi_device *sdev)
3578 {
3579         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *) sdev->host->hostdata;
3580         struct ipr_resource_entry *res;
3581         unsigned long lock_flags = 0;
3582
3583         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3584         res = sdev->hostdata;
3585         if (res) {
3586                 if (ipr_is_af_dasd_device(res))
3587                         sdev->type = TYPE_RAID;
3588                 if (ipr_is_af_dasd_device(res) || ipr_is_ioa_resource(res)) {
3589                         sdev->scsi_level = 4;
3590                         sdev->no_uld_attach = 1;
3591                 }
3592                 if (ipr_is_vset_device(res)) {
3593                         sdev->timeout = IPR_VSET_RW_TIMEOUT;
3594                         blk_queue_max_sectors(sdev->request_queue, IPR_VSET_MAX_SECTORS);
3595                 }
3596                 if (ipr_is_vset_device(res) || ipr_is_scsi_disk(res))
3597                         sdev->allow_restart = 1;
3598                 if (ipr_is_gata(res) && res->sata_port) {
3599                         scsi_adjust_queue_depth(sdev, 0, IPR_MAX_CMD_PER_ATA_LUN);
3600                         ata_sas_slave_configure(sdev, res->sata_port->ap);
3601                 } else {
3602                         scsi_adjust_queue_depth(sdev, 0, sdev->host->cmd_per_lun);
3603                 }
3604         }
3605         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3606         return 0;
3607 }
3608
3609 /**
3610  * ipr_ata_slave_alloc - Prepare for commands to a SATA device
3611  * @sdev:       scsi device struct
3612  *
3613  * This function initializes an ATA port so that future commands
3614  * sent through queuecommand will work.
3615  *
3616  * Return value:
3617  *      0 on success
3618  **/
3619 static int ipr_ata_slave_alloc(struct scsi_device *sdev)
3620 {
3621         struct ipr_sata_port *sata_port = NULL;
3622         int rc = -ENXIO;
3623
3624         ENTER;
3625         if (sdev->sdev_target)
3626                 sata_port = sdev->sdev_target->hostdata;
3627         if (sata_port)
3628                 rc = ata_sas_port_init(sata_port->ap);
3629         if (rc)
3630                 ipr_slave_destroy(sdev);
3631
3632         LEAVE;
3633         return rc;
3634 }
3635
3636 /**
3637  * ipr_slave_alloc - Prepare for commands to a device.
3638  * @sdev:       scsi device struct
3639  *
3640  * This function saves a pointer to the resource entry
3641  * in the scsi device struct if the device exists. We
3642  * can then use this pointer in ipr_queuecommand when
3643  * handling new commands.
3644  *
3645  * Return value:
3646  *      0 on success / -ENXIO if device does not exist
3647  **/
3648 static int ipr_slave_alloc(struct scsi_device *sdev)
3649 {
3650         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *) sdev->host->hostdata;
3651         struct ipr_resource_entry *res;
3652         unsigned long lock_flags;
3653         int rc = -ENXIO;
3654
3655         sdev->hostdata = NULL;
3656
3657         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3658
3659         res = ipr_find_sdev(sdev);
3660         if (res) {
3661                 res->sdev = sdev;
3662                 res->add_to_ml = 0;
3663                 res->in_erp = 0;
3664                 sdev->hostdata = res;
3665                 if (!ipr_is_naca_model(res))
3666                         res->needs_sync_complete = 1;
3667                 rc = 0;
3668                 if (ipr_is_gata(res)) {
3669                         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3670                         return ipr_ata_slave_alloc(sdev);
3671                 }
3672         }
3673
3674         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3675
3676         return rc;
3677 }
3678
3679 /**
3680  * ipr_eh_host_reset - Reset the host adapter
3681  * @scsi_cmd:   scsi command struct
3682  *
3683  * Return value:
3684  *      SUCCESS / FAILED
3685  **/
3686 static int __ipr_eh_host_reset(struct scsi_cmnd * scsi_cmd)
3687 {
3688         struct ipr_ioa_cfg *ioa_cfg;
3689         int rc;
3690
3691         ENTER;
3692         ioa_cfg = (struct ipr_ioa_cfg *) scsi_cmd->device->host->hostdata;
3693
3694         dev_err(&ioa_cfg->pdev->dev,
3695                 "Adapter being reset as a result of error recovery.\n");
3696
3697         if (WAIT_FOR_DUMP == ioa_cfg->sdt_state)
3698                 ioa_cfg->sdt_state = GET_DUMP;
3699
3700         rc = ipr_reset_reload(ioa_cfg, IPR_SHUTDOWN_ABBREV);
3701
3702         LEAVE;
3703         return rc;
3704 }
3705
3706 static int ipr_eh_host_reset(struct scsi_cmnd * cmd)
3707 {
3708         int rc;
3709
3710         spin_lock_irq(cmd->device->host->host_lock);
3711         rc = __ipr_eh_host_reset(cmd);
3712         spin_unlock_irq(cmd->device->host->host_lock);
3713
3714         return rc;
3715 }
3716
3717 /**
3718  * ipr_device_reset - Reset the device
3719  * @ioa_cfg:    ioa config struct
3720  * @res:                resource entry struct
3721  *
3722  * This function issues a device reset to the affected device.
3723  * If the device is a SCSI device, a LUN reset will be sent
3724  * to the device first. If that does not work, a target reset
3725  * will be sent. If the device is a SATA device, a PHY reset will
3726  * be sent.
3727  *
3728  * Return value:
3729  *      0 on success / non-zero on failure
3730  **/
3731 static int ipr_device_reset(struct ipr_ioa_cfg *ioa_cfg,
3732                             struct ipr_resource_entry *res)
3733 {
3734         struct ipr_cmnd *ipr_cmd;
3735         struct ipr_ioarcb *ioarcb;
3736         struct ipr_cmd_pkt *cmd_pkt;
3737         struct ipr_ioarcb_ata_regs *regs;
3738         u32 ioasc;
3739
3740         ENTER;
3741         ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
3742         ioarcb = &ipr_cmd->ioarcb;
3743         cmd_pkt = &ioarcb->cmd_pkt;
3744         regs = &ioarcb->add_data.u.regs;
3745
3746         ioarcb->res_handle = res->cfgte.res_handle;
3747         cmd_pkt->request_type = IPR_RQTYPE_IOACMD;
3748         cmd_pkt->cdb[0] = IPR_RESET_DEVICE;
3749         if (ipr_is_gata(res)) {
3750                 cmd_pkt->cdb[2] = IPR_ATA_PHY_RESET;
3751                 ioarcb->add_cmd_parms_len = cpu_to_be32(sizeof(regs->flags));
3752                 regs->flags |= IPR_ATA_FLAG_STATUS_ON_GOOD_COMPLETION;
3753         }
3754
3755         ipr_send_blocking_cmd(ipr_cmd, ipr_timeout, IPR_DEVICE_RESET_TIMEOUT);
3756         ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
3757         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
3758         if (ipr_is_gata(res) && res->sata_port && ioasc != IPR_IOASC_IOA_WAS_RESET)
3759                 memcpy(&res->sata_port->ioasa, &ipr_cmd->ioasa.u.gata,
3760                        sizeof(struct ipr_ioasa_gata));
3761
3762         LEAVE;
3763         return (IPR_IOASC_SENSE_KEY(ioasc) ? -EIO : 0);
3764 }
3765
3766 /**
3767  * ipr_sata_reset - Reset the SATA port
3768  * @ap:         SATA port to reset
3769  * @classes:    class of the attached device
3770  *
3771  * This function issues a SATA phy reset to the affected ATA port.
3772  *
3773  * Return value:
3774  *      0 on success / non-zero on failure
3775  **/
3776 static int ipr_sata_reset(struct ata_port *ap, unsigned int *classes)
3777 {
3778         struct ipr_sata_port *sata_port = ap->private_data;
3779         struct ipr_ioa_cfg *ioa_cfg = sata_port->ioa_cfg;
3780         struct ipr_resource_entry *res;
3781         unsigned long lock_flags = 0;
3782         int rc = -ENXIO;
3783
3784         ENTER;
3785         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3786         while(ioa_cfg->in_reset_reload) {
3787                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3788                 wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
3789                 spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3790         }
3791
3792         res = sata_port->res;
3793         if (res) {
3794                 rc = ipr_device_reset(ioa_cfg, res);
3795                 switch(res->cfgte.proto) {
3796                 case IPR_PROTO_SATA:
3797                 case IPR_PROTO_SAS_STP:
3798                         *classes = ATA_DEV_ATA;
3799                         break;
3800                 case IPR_PROTO_SATA_ATAPI:
3801                 case IPR_PROTO_SAS_STP_ATAPI:
3802                         *classes = ATA_DEV_ATAPI;
3803                         break;
3804                 default:
3805                         *classes = ATA_DEV_UNKNOWN;
3806                         break;
3807                 };
3808         }
3809
3810         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3811         LEAVE;
3812         return rc;
3813 }
3814
3815 /**
3816  * ipr_eh_dev_reset - Reset the device
3817  * @scsi_cmd:   scsi command struct
3818  *
3819  * This function issues a device reset to the affected device.
3820  * A LUN reset will be sent to the device first. If that does
3821  * not work, a target reset will be sent.
3822  *
3823  * Return value:
3824  *      SUCCESS / FAILED
3825  **/
3826 static int __ipr_eh_dev_reset(struct scsi_cmnd * scsi_cmd)
3827 {
3828         struct ipr_cmnd *ipr_cmd;
3829         struct ipr_ioa_cfg *ioa_cfg;
3830         struct ipr_resource_entry *res;
3831         struct ata_port *ap;
3832         int rc = 0;
3833
3834         ENTER;
3835         ioa_cfg = (struct ipr_ioa_cfg *) scsi_cmd->device->host->hostdata;
3836         res = scsi_cmd->device->hostdata;
3837
3838         if (!res)
3839                 return FAILED;
3840
3841         /*
3842          * If we are currently going through reset/reload, return failed. This will force the
3843          * mid-layer to call ipr_eh_host_reset, which will then go to sleep and wait for the
3844          * reset to complete
3845          */
3846         if (ioa_cfg->in_reset_reload)
3847                 return FAILED;
3848         if (ioa_cfg->ioa_is_dead)
3849                 return FAILED;
3850
3851         list_for_each_entry(ipr_cmd, &ioa_cfg->pending_q, queue) {
3852                 if (ipr_cmd->ioarcb.res_handle == res->cfgte.res_handle) {
3853                         if (ipr_cmd->scsi_cmd)
3854                                 ipr_cmd->done = ipr_scsi_eh_done;
3855                         if (ipr_cmd->qc)
3856                                 ipr_cmd->done = ipr_sata_eh_done;
3857                         if (ipr_cmd->qc && !(ipr_cmd->qc->flags & ATA_QCFLAG_FAILED)) {
3858                                 ipr_cmd->qc->err_mask |= AC_ERR_TIMEOUT;
3859                                 ipr_cmd->qc->flags |= ATA_QCFLAG_FAILED;
3860                         }
3861                 }
3862         }
3863
3864         res->resetting_device = 1;
3865         scmd_printk(KERN_ERR, scsi_cmd, "Resetting device\n");
3866
3867         if (ipr_is_gata(res) && res->sata_port) {
3868                 ap = res->sata_port->ap;
3869                 spin_unlock_irq(scsi_cmd->device->host->host_lock);
3870                 ata_do_eh(ap, NULL, NULL, ipr_sata_reset, NULL);
3871                 spin_lock_irq(scsi_cmd->device->host->host_lock);
3872         } else
3873                 rc = ipr_device_reset(ioa_cfg, res);
3874         res->resetting_device = 0;
3875
3876         LEAVE;
3877         return (rc ? FAILED : SUCCESS);
3878 }
3879
3880 static int ipr_eh_dev_reset(struct scsi_cmnd * cmd)
3881 {
3882         int rc;
3883
3884         spin_lock_irq(cmd->device->host->host_lock);
3885         rc = __ipr_eh_dev_reset(cmd);
3886         spin_unlock_irq(cmd->device->host->host_lock);
3887
3888         return rc;
3889 }
3890
3891 /**
3892  * ipr_bus_reset_done - Op done function for bus reset.
3893  * @ipr_cmd:    ipr command struct
3894  *
3895  * This function is the op done function for a bus reset
3896  *
3897  * Return value:
3898  *      none
3899  **/
3900 static void ipr_bus_reset_done(struct ipr_cmnd *ipr_cmd)
3901 {
3902         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
3903         struct ipr_resource_entry *res;
3904
3905         ENTER;
3906         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
3907                 if (!memcmp(&res->cfgte.res_handle, &ipr_cmd->ioarcb.res_handle,
3908                             sizeof(res->cfgte.res_handle))) {
3909                         scsi_report_bus_reset(ioa_cfg->host, res->cfgte.res_addr.bus);
3910                         break;
3911                 }
3912         }
3913
3914         /*
3915          * If abort has not completed, indicate the reset has, else call the
3916          * abort's done function to wake the sleeping eh thread
3917          */
3918         if (ipr_cmd->sibling->sibling)
3919                 ipr_cmd->sibling->sibling = NULL;
3920         else
3921                 ipr_cmd->sibling->done(ipr_cmd->sibling);
3922
3923         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
3924         LEAVE;
3925 }
3926
3927 /**
3928  * ipr_abort_timeout - An abort task has timed out
3929  * @ipr_cmd:    ipr command struct
3930  *
3931  * This function handles when an abort task times out. If this
3932  * happens we issue a bus reset since we have resources tied
3933  * up that must be freed before returning to the midlayer.
3934  *
3935  * Return value:
3936  *      none
3937  **/
3938 static void ipr_abort_timeout(struct ipr_cmnd *ipr_cmd)
3939 {
3940         struct ipr_cmnd *reset_cmd;
3941         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
3942         struct ipr_cmd_pkt *cmd_pkt;
3943         unsigned long lock_flags = 0;
3944
3945         ENTER;
3946         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
3947         if (ipr_cmd->completion.done || ioa_cfg->in_reset_reload) {
3948                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3949                 return;
3950         }
3951
3952         sdev_printk(KERN_ERR, ipr_cmd->u.sdev, "Abort timed out. Resetting bus.\n");
3953         reset_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
3954         ipr_cmd->sibling = reset_cmd;
3955         reset_cmd->sibling = ipr_cmd;
3956         reset_cmd->ioarcb.res_handle = ipr_cmd->ioarcb.res_handle;
3957         cmd_pkt = &reset_cmd->ioarcb.cmd_pkt;
3958         cmd_pkt->request_type = IPR_RQTYPE_IOACMD;
3959         cmd_pkt->cdb[0] = IPR_RESET_DEVICE;
3960         cmd_pkt->cdb[2] = IPR_RESET_TYPE_SELECT | IPR_BUS_RESET;
3961
3962         ipr_do_req(reset_cmd, ipr_bus_reset_done, ipr_timeout, IPR_DEVICE_RESET_TIMEOUT);
3963         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
3964         LEAVE;
3965 }
3966
3967 /**
3968  * ipr_cancel_op - Cancel specified op
3969  * @scsi_cmd:   scsi command struct
3970  *
3971  * This function cancels specified op.
3972  *
3973  * Return value:
3974  *      SUCCESS / FAILED
3975  **/
3976 static int ipr_cancel_op(struct scsi_cmnd * scsi_cmd)
3977 {
3978         struct ipr_cmnd *ipr_cmd;
3979         struct ipr_ioa_cfg *ioa_cfg;
3980         struct ipr_resource_entry *res;
3981         struct ipr_cmd_pkt *cmd_pkt;
3982         u32 ioasc;
3983         int op_found = 0;
3984
3985         ENTER;
3986         ioa_cfg = (struct ipr_ioa_cfg *)scsi_cmd->device->host->hostdata;
3987         res = scsi_cmd->device->hostdata;
3988
3989         /* If we are currently going through reset/reload, return failed.
3990          * This will force the mid-layer to call ipr_eh_host_reset,
3991          * which will then go to sleep and wait for the reset to complete
3992          */
3993         if (ioa_cfg->in_reset_reload || ioa_cfg->ioa_is_dead)
3994                 return FAILED;
3995         if (!res || !ipr_is_gscsi(res))
3996                 return FAILED;
3997
3998         list_for_each_entry(ipr_cmd, &ioa_cfg->pending_q, queue) {
3999                 if (ipr_cmd->scsi_cmd == scsi_cmd) {
4000                         ipr_cmd->done = ipr_scsi_eh_done;
4001                         op_found = 1;
4002                         break;
4003                 }
4004         }
4005
4006         if (!op_found)
4007                 return SUCCESS;
4008
4009         ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
4010         ipr_cmd->ioarcb.res_handle = res->cfgte.res_handle;
4011         cmd_pkt = &ipr_cmd->ioarcb.cmd_pkt;
4012         cmd_pkt->request_type = IPR_RQTYPE_IOACMD;
4013         cmd_pkt->cdb[0] = IPR_CANCEL_ALL_REQUESTS;
4014         ipr_cmd->u.sdev = scsi_cmd->device;
4015
4016         scmd_printk(KERN_ERR, scsi_cmd, "Aborting command: %02X\n",
4017                     scsi_cmd->cmnd[0]);
4018         ipr_send_blocking_cmd(ipr_cmd, ipr_abort_timeout, IPR_CANCEL_ALL_TIMEOUT);
4019         ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4020
4021         /*
4022          * If the abort task timed out and we sent a bus reset, we will get
4023          * one the following responses to the abort
4024          */
4025         if (ioasc == IPR_IOASC_BUS_WAS_RESET || ioasc == IPR_IOASC_SYNC_REQUIRED) {
4026                 ioasc = 0;
4027                 ipr_trace;
4028         }
4029
4030         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
4031         if (!ipr_is_naca_model(res))
4032                 res->needs_sync_complete = 1;
4033
4034         LEAVE;
4035         return (IPR_IOASC_SENSE_KEY(ioasc) ? FAILED : SUCCESS);
4036 }
4037
4038 /**
4039  * ipr_eh_abort - Abort a single op
4040  * @scsi_cmd:   scsi command struct
4041  *
4042  * Return value:
4043  *      SUCCESS / FAILED
4044  **/
4045 static int ipr_eh_abort(struct scsi_cmnd * scsi_cmd)
4046 {
4047         unsigned long flags;
4048         int rc;
4049
4050         ENTER;
4051
4052         spin_lock_irqsave(scsi_cmd->device->host->host_lock, flags);
4053         rc = ipr_cancel_op(scsi_cmd);
4054         spin_unlock_irqrestore(scsi_cmd->device->host->host_lock, flags);
4055
4056         LEAVE;
4057         return rc;
4058 }
4059
4060 /**
4061  * ipr_handle_other_interrupt - Handle "other" interrupts
4062  * @ioa_cfg:    ioa config struct
4063  * @int_reg:    interrupt register
4064  *
4065  * Return value:
4066  *      IRQ_NONE / IRQ_HANDLED
4067  **/
4068 static irqreturn_t ipr_handle_other_interrupt(struct ipr_ioa_cfg *ioa_cfg,
4069                                               volatile u32 int_reg)
4070 {
4071         irqreturn_t rc = IRQ_HANDLED;
4072
4073         if (int_reg & IPR_PCII_IOA_TRANS_TO_OPER) {
4074                 /* Mask the interrupt */
4075                 writel(IPR_PCII_IOA_TRANS_TO_OPER, ioa_cfg->regs.set_interrupt_mask_reg);
4076
4077                 /* Clear the interrupt */
4078                 writel(IPR_PCII_IOA_TRANS_TO_OPER, ioa_cfg->regs.clr_interrupt_reg);
4079                 int_reg = readl(ioa_cfg->regs.sense_interrupt_reg);
4080
4081                 list_del(&ioa_cfg->reset_cmd->queue);
4082                 del_timer(&ioa_cfg->reset_cmd->timer);
4083                 ipr_reset_ioa_job(ioa_cfg->reset_cmd);
4084         } else {
4085                 if (int_reg & IPR_PCII_IOA_UNIT_CHECKED)
4086                         ioa_cfg->ioa_unit_checked = 1;
4087                 else
4088                         dev_err(&ioa_cfg->pdev->dev,
4089                                 "Permanent IOA failure. 0x%08X\n", int_reg);
4090
4091                 if (WAIT_FOR_DUMP == ioa_cfg->sdt_state)
4092                         ioa_cfg->sdt_state = GET_DUMP;
4093
4094                 ipr_mask_and_clear_interrupts(ioa_cfg, ~0);
4095                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
4096         }
4097
4098         return rc;
4099 }
4100
4101 /**
4102  * ipr_isr - Interrupt service routine
4103  * @irq:        irq number
4104  * @devp:       pointer to ioa config struct
4105  *
4106  * Return value:
4107  *      IRQ_NONE / IRQ_HANDLED
4108  **/
4109 static irqreturn_t ipr_isr(int irq, void *devp)
4110 {
4111         struct ipr_ioa_cfg *ioa_cfg = (struct ipr_ioa_cfg *)devp;
4112         unsigned long lock_flags = 0;
4113         volatile u32 int_reg, int_mask_reg;
4114         u32 ioasc;
4115         u16 cmd_index;
4116         struct ipr_cmnd *ipr_cmd;
4117         irqreturn_t rc = IRQ_NONE;
4118
4119         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
4120
4121         /* If interrupts are disabled, ignore the interrupt */
4122         if (!ioa_cfg->allow_interrupts) {
4123                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
4124                 return IRQ_NONE;
4125         }
4126
4127         int_mask_reg = readl(ioa_cfg->regs.sense_interrupt_mask_reg);
4128         int_reg = readl(ioa_cfg->regs.sense_interrupt_reg) & ~int_mask_reg;
4129
4130         /* If an interrupt on the adapter did not occur, ignore it */
4131         if (unlikely((int_reg & IPR_PCII_OPER_INTERRUPTS) == 0)) {
4132                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
4133                 return IRQ_NONE;
4134         }
4135
4136         while (1) {
4137                 ipr_cmd = NULL;
4138
4139                 while ((be32_to_cpu(*ioa_cfg->hrrq_curr) & IPR_HRRQ_TOGGLE_BIT) ==
4140                        ioa_cfg->toggle_bit) {
4141
4142                         cmd_index = (be32_to_cpu(*ioa_cfg->hrrq_curr) &
4143                                      IPR_HRRQ_REQ_RESP_HANDLE_MASK) >> IPR_HRRQ_REQ_RESP_HANDLE_SHIFT;
4144
4145                         if (unlikely(cmd_index >= IPR_NUM_CMD_BLKS)) {
4146                                 ioa_cfg->errors_logged++;
4147                                 dev_err(&ioa_cfg->pdev->dev, "Invalid response handle from IOA\n");
4148
4149                                 if (WAIT_FOR_DUMP == ioa_cfg->sdt_state)
4150                                         ioa_cfg->sdt_state = GET_DUMP;
4151
4152                                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
4153                                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
4154                                 return IRQ_HANDLED;
4155                         }
4156
4157                         ipr_cmd = ioa_cfg->ipr_cmnd_list[cmd_index];
4158
4159                         ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4160
4161                         ipr_trc_hook(ipr_cmd, IPR_TRACE_FINISH, ioasc);
4162
4163                         list_del(&ipr_cmd->queue);
4164                         del_timer(&ipr_cmd->timer);
4165                         ipr_cmd->done(ipr_cmd);
4166
4167                         rc = IRQ_HANDLED;
4168
4169                         if (ioa_cfg->hrrq_curr < ioa_cfg->hrrq_end) {
4170                                 ioa_cfg->hrrq_curr++;
4171                         } else {
4172                                 ioa_cfg->hrrq_curr = ioa_cfg->hrrq_start;
4173                                 ioa_cfg->toggle_bit ^= 1u;
4174                         }
4175                 }
4176
4177                 if (ipr_cmd != NULL) {
4178                         /* Clear the PCI interrupt */
4179                         writel(IPR_PCII_HRRQ_UPDATED, ioa_cfg->regs.clr_interrupt_reg);
4180                         int_reg = readl(ioa_cfg->regs.sense_interrupt_reg) & ~int_mask_reg;
4181                 } else
4182                         break;
4183         }
4184
4185         if (unlikely(rc == IRQ_NONE))
4186                 rc = ipr_handle_other_interrupt(ioa_cfg, int_reg);
4187
4188         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
4189         return rc;
4190 }
4191
4192 /**
4193  * ipr_build_ioadl - Build a scatter/gather list and map the buffer
4194  * @ioa_cfg:    ioa config struct
4195  * @ipr_cmd:    ipr command struct
4196  *
4197  * Return value:
4198  *      0 on success / -1 on failure
4199  **/
4200 static int ipr_build_ioadl(struct ipr_ioa_cfg *ioa_cfg,
4201                            struct ipr_cmnd *ipr_cmd)
4202 {
4203         int i;
4204         struct scatterlist *sglist;
4205         u32 length;
4206         u32 ioadl_flags = 0;
4207         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
4208         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
4209         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
4210
4211         length = scsi_cmd->request_bufflen;
4212
4213         if (length == 0)
4214                 return 0;
4215
4216         if (scsi_cmd->use_sg) {
4217                 ipr_cmd->dma_use_sg = pci_map_sg(ioa_cfg->pdev,
4218                                                  scsi_cmd->request_buffer,
4219                                                  scsi_cmd->use_sg,
4220                                                  scsi_cmd->sc_data_direction);
4221
4222                 if (scsi_cmd->sc_data_direction == DMA_TO_DEVICE) {
4223                         ioadl_flags = IPR_IOADL_FLAGS_WRITE;
4224                         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
4225                         ioarcb->write_data_transfer_length = cpu_to_be32(length);
4226                         ioarcb->write_ioadl_len =
4227                                 cpu_to_be32(sizeof(struct ipr_ioadl_desc) * ipr_cmd->dma_use_sg);
4228                 } else if (scsi_cmd->sc_data_direction == DMA_FROM_DEVICE) {
4229                         ioadl_flags = IPR_IOADL_FLAGS_READ;
4230                         ioarcb->read_data_transfer_length = cpu_to_be32(length);
4231                         ioarcb->read_ioadl_len =
4232                                 cpu_to_be32(sizeof(struct ipr_ioadl_desc) * ipr_cmd->dma_use_sg);
4233                 }
4234
4235                 sglist = scsi_cmd->request_buffer;
4236
4237                 if (ipr_cmd->dma_use_sg <= ARRAY_SIZE(ioarcb->add_data.u.ioadl)) {
4238                         ioadl = ioarcb->add_data.u.ioadl;
4239                         ioarcb->write_ioadl_addr =
4240                                 cpu_to_be32(be32_to_cpu(ioarcb->ioarcb_host_pci_addr) +
4241                                             offsetof(struct ipr_ioarcb, add_data));
4242                         ioarcb->read_ioadl_addr = ioarcb->write_ioadl_addr;
4243                 }
4244
4245                 for (i = 0; i < ipr_cmd->dma_use_sg; i++) {
4246                         ioadl[i].flags_and_data_len =
4247                                 cpu_to_be32(ioadl_flags | sg_dma_len(&sglist[i]));
4248                         ioadl[i].address =
4249                                 cpu_to_be32(sg_dma_address(&sglist[i]));
4250                 }
4251
4252                 if (likely(ipr_cmd->dma_use_sg)) {
4253                         ioadl[i-1].flags_and_data_len |=
4254                                 cpu_to_be32(IPR_IOADL_FLAGS_LAST);
4255                         return 0;
4256                 } else
4257                         dev_err(&ioa_cfg->pdev->dev, "pci_map_sg failed!\n");
4258         } else {
4259                 if (scsi_cmd->sc_data_direction == DMA_TO_DEVICE) {
4260                         ioadl_flags = IPR_IOADL_FLAGS_WRITE;
4261                         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
4262                         ioarcb->write_data_transfer_length = cpu_to_be32(length);
4263                         ioarcb->write_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
4264                 } else if (scsi_cmd->sc_data_direction == DMA_FROM_DEVICE) {
4265                         ioadl_flags = IPR_IOADL_FLAGS_READ;
4266                         ioarcb->read_data_transfer_length = cpu_to_be32(length);
4267                         ioarcb->read_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
4268                 }
4269
4270                 ipr_cmd->dma_handle = pci_map_single(ioa_cfg->pdev,
4271                                                      scsi_cmd->request_buffer, length,
4272                                                      scsi_cmd->sc_data_direction);
4273
4274                 if (likely(!pci_dma_mapping_error(ipr_cmd->dma_handle))) {
4275                         ioadl = ioarcb->add_data.u.ioadl;
4276                         ioarcb->write_ioadl_addr =
4277                                 cpu_to_be32(be32_to_cpu(ioarcb->ioarcb_host_pci_addr) +
4278                                             offsetof(struct ipr_ioarcb, add_data));
4279                         ioarcb->read_ioadl_addr = ioarcb->write_ioadl_addr;
4280                         ipr_cmd->dma_use_sg = 1;
4281                         ioadl[0].flags_and_data_len =
4282                                 cpu_to_be32(ioadl_flags | length | IPR_IOADL_FLAGS_LAST);
4283                         ioadl[0].address = cpu_to_be32(ipr_cmd->dma_handle);
4284                         return 0;
4285                 } else
4286                         dev_err(&ioa_cfg->pdev->dev, "pci_map_single failed!\n");
4287         }
4288
4289         return -1;
4290 }
4291
4292 /**
4293  * ipr_get_task_attributes - Translate SPI Q-Tag to task attributes
4294  * @scsi_cmd:   scsi command struct
4295  *
4296  * Return value:
4297  *      task attributes
4298  **/
4299 static u8 ipr_get_task_attributes(struct scsi_cmnd *scsi_cmd)
4300 {
4301         u8 tag[2];
4302         u8 rc = IPR_FLAGS_LO_UNTAGGED_TASK;
4303
4304         if (scsi_populate_tag_msg(scsi_cmd, tag)) {
4305                 switch (tag[0]) {
4306                 case MSG_SIMPLE_TAG:
4307                         rc = IPR_FLAGS_LO_SIMPLE_TASK;
4308                         break;
4309                 case MSG_HEAD_TAG:
4310                         rc = IPR_FLAGS_LO_HEAD_OF_Q_TASK;
4311                         break;
4312                 case MSG_ORDERED_TAG:
4313                         rc = IPR_FLAGS_LO_ORDERED_TASK;
4314                         break;
4315                 };
4316         }
4317
4318         return rc;
4319 }
4320
4321 /**
4322  * ipr_erp_done - Process completion of ERP for a device
4323  * @ipr_cmd:            ipr command struct
4324  *
4325  * This function copies the sense buffer into the scsi_cmd
4326  * struct and pushes the scsi_done function.
4327  *
4328  * Return value:
4329  *      nothing
4330  **/
4331 static void ipr_erp_done(struct ipr_cmnd *ipr_cmd)
4332 {
4333         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
4334         struct ipr_resource_entry *res = scsi_cmd->device->hostdata;
4335         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
4336         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4337
4338         if (IPR_IOASC_SENSE_KEY(ioasc) > 0) {
4339                 scsi_cmd->result |= (DID_ERROR << 16);
4340                 scmd_printk(KERN_ERR, scsi_cmd,
4341                             "Request Sense failed with IOASC: 0x%08X\n", ioasc);
4342         } else {
4343                 memcpy(scsi_cmd->sense_buffer, ipr_cmd->sense_buffer,
4344                        SCSI_SENSE_BUFFERSIZE);
4345         }
4346
4347         if (res) {
4348                 if (!ipr_is_naca_model(res))
4349                         res->needs_sync_complete = 1;
4350                 res->in_erp = 0;
4351         }
4352         ipr_unmap_sglist(ioa_cfg, ipr_cmd);
4353         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
4354         scsi_cmd->scsi_done(scsi_cmd);
4355 }
4356
4357 /**
4358  * ipr_reinit_ipr_cmnd_for_erp - Re-initialize a cmnd block to be used for ERP
4359  * @ipr_cmd:    ipr command struct
4360  *
4361  * Return value:
4362  *      none
4363  **/
4364 static void ipr_reinit_ipr_cmnd_for_erp(struct ipr_cmnd *ipr_cmd)
4365 {
4366         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
4367         struct ipr_ioasa *ioasa = &ipr_cmd->ioasa;
4368         dma_addr_t dma_addr = be32_to_cpu(ioarcb->ioarcb_host_pci_addr);
4369
4370         memset(&ioarcb->cmd_pkt, 0, sizeof(struct ipr_cmd_pkt));
4371         ioarcb->write_data_transfer_length = 0;
4372         ioarcb->read_data_transfer_length = 0;
4373         ioarcb->write_ioadl_len = 0;
4374         ioarcb->read_ioadl_len = 0;
4375         ioasa->ioasc = 0;
4376         ioasa->residual_data_len = 0;
4377         ioarcb->write_ioadl_addr =
4378                 cpu_to_be32(dma_addr + offsetof(struct ipr_cmnd, ioadl));
4379         ioarcb->read_ioadl_addr = ioarcb->write_ioadl_addr;
4380 }
4381
4382 /**
4383  * ipr_erp_request_sense - Send request sense to a device
4384  * @ipr_cmd:    ipr command struct
4385  *
4386  * This function sends a request sense to a device as a result
4387  * of a check condition.
4388  *
4389  * Return value:
4390  *      nothing
4391  **/
4392 static void ipr_erp_request_sense(struct ipr_cmnd *ipr_cmd)
4393 {
4394         struct ipr_cmd_pkt *cmd_pkt = &ipr_cmd->ioarcb.cmd_pkt;
4395         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4396
4397         if (IPR_IOASC_SENSE_KEY(ioasc) > 0) {
4398                 ipr_erp_done(ipr_cmd);
4399                 return;
4400         }
4401
4402         ipr_reinit_ipr_cmnd_for_erp(ipr_cmd);
4403
4404         cmd_pkt->request_type = IPR_RQTYPE_SCSICDB;
4405         cmd_pkt->cdb[0] = REQUEST_SENSE;
4406         cmd_pkt->cdb[4] = SCSI_SENSE_BUFFERSIZE;
4407         cmd_pkt->flags_hi |= IPR_FLAGS_HI_SYNC_OVERRIDE;
4408         cmd_pkt->flags_hi |= IPR_FLAGS_HI_NO_ULEN_CHK;
4409         cmd_pkt->timeout = cpu_to_be16(IPR_REQUEST_SENSE_TIMEOUT / HZ);
4410
4411         ipr_cmd->ioadl[0].flags_and_data_len =
4412                 cpu_to_be32(IPR_IOADL_FLAGS_READ_LAST | SCSI_SENSE_BUFFERSIZE);
4413         ipr_cmd->ioadl[0].address =
4414                 cpu_to_be32(ipr_cmd->sense_buffer_dma);
4415
4416         ipr_cmd->ioarcb.read_ioadl_len =
4417                 cpu_to_be32(sizeof(struct ipr_ioadl_desc));
4418         ipr_cmd->ioarcb.read_data_transfer_length =
4419                 cpu_to_be32(SCSI_SENSE_BUFFERSIZE);
4420
4421         ipr_do_req(ipr_cmd, ipr_erp_done, ipr_timeout,
4422                    IPR_REQUEST_SENSE_TIMEOUT * 2);
4423 }
4424
4425 /**
4426  * ipr_erp_cancel_all - Send cancel all to a device
4427  * @ipr_cmd:    ipr command struct
4428  *
4429  * This function sends a cancel all to a device to clear the
4430  * queue. If we are running TCQ on the device, QERR is set to 1,
4431  * which means all outstanding ops have been dropped on the floor.
4432  * Cancel all will return them to us.
4433  *
4434  * Return value:
4435  *      nothing
4436  **/
4437 static void ipr_erp_cancel_all(struct ipr_cmnd *ipr_cmd)
4438 {
4439         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
4440         struct ipr_resource_entry *res = scsi_cmd->device->hostdata;
4441         struct ipr_cmd_pkt *cmd_pkt;
4442
4443         res->in_erp = 1;
4444
4445         ipr_reinit_ipr_cmnd_for_erp(ipr_cmd);
4446
4447         if (!scsi_get_tag_type(scsi_cmd->device)) {
4448                 ipr_erp_request_sense(ipr_cmd);
4449                 return;
4450         }
4451
4452         cmd_pkt = &ipr_cmd->ioarcb.cmd_pkt;
4453         cmd_pkt->request_type = IPR_RQTYPE_IOACMD;
4454         cmd_pkt->cdb[0] = IPR_CANCEL_ALL_REQUESTS;
4455
4456         ipr_do_req(ipr_cmd, ipr_erp_request_sense, ipr_timeout,
4457                    IPR_CANCEL_ALL_TIMEOUT);
4458 }
4459
4460 /**
4461  * ipr_dump_ioasa - Dump contents of IOASA
4462  * @ioa_cfg:    ioa config struct
4463  * @ipr_cmd:    ipr command struct
4464  * @res:                resource entry struct
4465  *
4466  * This function is invoked by the interrupt handler when ops
4467  * fail. It will log the IOASA if appropriate. Only called
4468  * for GPDD ops.
4469  *
4470  * Return value:
4471  *      none
4472  **/
4473 static void ipr_dump_ioasa(struct ipr_ioa_cfg *ioa_cfg,
4474                            struct ipr_cmnd *ipr_cmd, struct ipr_resource_entry *res)
4475 {
4476         int i;
4477         u16 data_len;
4478         u32 ioasc, fd_ioasc;
4479         struct ipr_ioasa *ioasa = &ipr_cmd->ioasa;
4480         __be32 *ioasa_data = (__be32 *)ioasa;
4481         int error_index;
4482
4483         ioasc = be32_to_cpu(ioasa->ioasc) & IPR_IOASC_IOASC_MASK;
4484         fd_ioasc = be32_to_cpu(ioasa->fd_ioasc) & IPR_IOASC_IOASC_MASK;
4485
4486         if (0 == ioasc)
4487                 return;
4488
4489         if (ioa_cfg->log_level < IPR_DEFAULT_LOG_LEVEL)
4490                 return;
4491
4492         if (ioasc == IPR_IOASC_BUS_WAS_RESET && fd_ioasc)
4493                 error_index = ipr_get_error(fd_ioasc);
4494         else
4495                 error_index = ipr_get_error(ioasc);
4496
4497         if (ioa_cfg->log_level < IPR_MAX_LOG_LEVEL) {
4498                 /* Don't log an error if the IOA already logged one */
4499                 if (ioasa->ilid != 0)
4500                         return;
4501
4502                 if (!ipr_is_gscsi(res))
4503                         return;
4504
4505                 if (ipr_error_table[error_index].log_ioasa == 0)
4506                         return;
4507         }
4508
4509         ipr_res_err(ioa_cfg, res, "%s\n", ipr_error_table[error_index].error);
4510
4511         if (sizeof(struct ipr_ioasa) < be16_to_cpu(ioasa->ret_stat_len))
4512                 data_len = sizeof(struct ipr_ioasa);
4513         else
4514                 data_len = be16_to_cpu(ioasa->ret_stat_len);
4515
4516         ipr_err("IOASA Dump:\n");
4517
4518         for (i = 0; i < data_len / 4; i += 4) {
4519                 ipr_err("%08X: %08X %08X %08X %08X\n", i*4,
4520                         be32_to_cpu(ioasa_data[i]),
4521                         be32_to_cpu(ioasa_data[i+1]),
4522                         be32_to_cpu(ioasa_data[i+2]),
4523                         be32_to_cpu(ioasa_data[i+3]));
4524         }
4525 }
4526
4527 /**
4528  * ipr_gen_sense - Generate SCSI sense data from an IOASA
4529  * @ioasa:              IOASA
4530  * @sense_buf:  sense data buffer
4531  *
4532  * Return value:
4533  *      none
4534  **/
4535 static void ipr_gen_sense(struct ipr_cmnd *ipr_cmd)
4536 {
4537         u32 failing_lba;
4538         u8 *sense_buf = ipr_cmd->scsi_cmd->sense_buffer;
4539         struct ipr_resource_entry *res = ipr_cmd->scsi_cmd->device->hostdata;
4540         struct ipr_ioasa *ioasa = &ipr_cmd->ioasa;
4541         u32 ioasc = be32_to_cpu(ioasa->ioasc);
4542
4543         memset(sense_buf, 0, SCSI_SENSE_BUFFERSIZE);
4544
4545         if (ioasc >= IPR_FIRST_DRIVER_IOASC)
4546                 return;
4547
4548         ipr_cmd->scsi_cmd->result = SAM_STAT_CHECK_CONDITION;
4549
4550         if (ipr_is_vset_device(res) &&
4551             ioasc == IPR_IOASC_MED_DO_NOT_REALLOC &&
4552             ioasa->u.vset.failing_lba_hi != 0) {
4553                 sense_buf[0] = 0x72;
4554                 sense_buf[1] = IPR_IOASC_SENSE_KEY(ioasc);
4555                 sense_buf[2] = IPR_IOASC_SENSE_CODE(ioasc);
4556                 sense_buf[3] = IPR_IOASC_SENSE_QUAL(ioasc);
4557
4558                 sense_buf[7] = 12;
4559                 sense_buf[8] = 0;
4560                 sense_buf[9] = 0x0A;
4561                 sense_buf[10] = 0x80;
4562
4563                 failing_lba = be32_to_cpu(ioasa->u.vset.failing_lba_hi);
4564
4565                 sense_buf[12] = (failing_lba & 0xff000000) >> 24;
4566                 sense_buf[13] = (failing_lba & 0x00ff0000) >> 16;
4567                 sense_buf[14] = (failing_lba & 0x0000ff00) >> 8;
4568                 sense_buf[15] = failing_lba & 0x000000ff;
4569
4570                 failing_lba = be32_to_cpu(ioasa->u.vset.failing_lba_lo);
4571
4572                 sense_buf[16] = (failing_lba & 0xff000000) >> 24;
4573                 sense_buf[17] = (failing_lba & 0x00ff0000) >> 16;
4574                 sense_buf[18] = (failing_lba & 0x0000ff00) >> 8;
4575                 sense_buf[19] = failing_lba & 0x000000ff;
4576         } else {
4577                 sense_buf[0] = 0x70;
4578                 sense_buf[2] = IPR_IOASC_SENSE_KEY(ioasc);
4579                 sense_buf[12] = IPR_IOASC_SENSE_CODE(ioasc);
4580                 sense_buf[13] = IPR_IOASC_SENSE_QUAL(ioasc);
4581
4582                 /* Illegal request */
4583                 if ((IPR_IOASC_SENSE_KEY(ioasc) == 0x05) &&
4584                     (be32_to_cpu(ioasa->ioasc_specific) & IPR_FIELD_POINTER_VALID)) {
4585                         sense_buf[7] = 10;      /* additional length */
4586
4587                         /* IOARCB was in error */
4588                         if (IPR_IOASC_SENSE_CODE(ioasc) == 0x24)
4589                                 sense_buf[15] = 0xC0;
4590                         else    /* Parameter data was invalid */
4591                                 sense_buf[15] = 0x80;
4592
4593                         sense_buf[16] =
4594                             ((IPR_FIELD_POINTER_MASK &
4595                               be32_to_cpu(ioasa->ioasc_specific)) >> 8) & 0xff;
4596                         sense_buf[17] =
4597                             (IPR_FIELD_POINTER_MASK &
4598                              be32_to_cpu(ioasa->ioasc_specific)) & 0xff;
4599                 } else {
4600                         if (ioasc == IPR_IOASC_MED_DO_NOT_REALLOC) {
4601                                 if (ipr_is_vset_device(res))
4602                                         failing_lba = be32_to_cpu(ioasa->u.vset.failing_lba_lo);
4603                                 else
4604                                         failing_lba = be32_to_cpu(ioasa->u.dasd.failing_lba);
4605
4606                                 sense_buf[0] |= 0x80;   /* Or in the Valid bit */
4607                                 sense_buf[3] = (failing_lba & 0xff000000) >> 24;
4608                                 sense_buf[4] = (failing_lba & 0x00ff0000) >> 16;
4609                                 sense_buf[5] = (failing_lba & 0x0000ff00) >> 8;
4610                                 sense_buf[6] = failing_lba & 0x000000ff;
4611                         }
4612
4613                         sense_buf[7] = 6;       /* additional length */
4614                 }
4615         }
4616 }
4617
4618 /**
4619  * ipr_get_autosense - Copy autosense data to sense buffer
4620  * @ipr_cmd:    ipr command struct
4621  *
4622  * This function copies the autosense buffer to the buffer
4623  * in the scsi_cmd, if there is autosense available.
4624  *
4625  * Return value:
4626  *      1 if autosense was available / 0 if not
4627  **/
4628 static int ipr_get_autosense(struct ipr_cmnd *ipr_cmd)
4629 {
4630         struct ipr_ioasa *ioasa = &ipr_cmd->ioasa;
4631
4632         if ((be32_to_cpu(ioasa->ioasc_specific) & IPR_AUTOSENSE_VALID) == 0)
4633                 return 0;
4634
4635         memcpy(ipr_cmd->scsi_cmd->sense_buffer, ioasa->auto_sense.data,
4636                min_t(u16, be16_to_cpu(ioasa->auto_sense.auto_sense_len),
4637                    SCSI_SENSE_BUFFERSIZE));
4638         return 1;
4639 }
4640
4641 /**
4642  * ipr_erp_start - Process an error response for a SCSI op
4643  * @ioa_cfg:    ioa config struct
4644  * @ipr_cmd:    ipr command struct
4645  *
4646  * This function determines whether or not to initiate ERP
4647  * on the affected device.
4648  *
4649  * Return value:
4650  *      nothing
4651  **/
4652 static void ipr_erp_start(struct ipr_ioa_cfg *ioa_cfg,
4653                               struct ipr_cmnd *ipr_cmd)
4654 {
4655         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
4656         struct ipr_resource_entry *res = scsi_cmd->device->hostdata;
4657         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4658
4659         if (!res) {
4660                 ipr_scsi_eh_done(ipr_cmd);
4661                 return;
4662         }
4663
4664         if (!ipr_is_gscsi(res))
4665                 ipr_gen_sense(ipr_cmd);
4666
4667         ipr_dump_ioasa(ioa_cfg, ipr_cmd, res);
4668
4669         switch (ioasc & IPR_IOASC_IOASC_MASK) {
4670         case IPR_IOASC_ABORTED_CMD_TERM_BY_HOST:
4671                 if (ipr_is_naca_model(res))
4672                         scsi_cmd->result |= (DID_ABORT << 16);
4673                 else
4674                         scsi_cmd->result |= (DID_IMM_RETRY << 16);
4675                 break;
4676         case IPR_IOASC_IR_RESOURCE_HANDLE:
4677         case IPR_IOASC_IR_NO_CMDS_TO_2ND_IOA:
4678                 scsi_cmd->result |= (DID_NO_CONNECT << 16);
4679                 break;
4680         case IPR_IOASC_HW_SEL_TIMEOUT:
4681                 scsi_cmd->result |= (DID_NO_CONNECT << 16);
4682                 if (!ipr_is_naca_model(res))
4683                         res->needs_sync_complete = 1;
4684                 break;
4685         case IPR_IOASC_SYNC_REQUIRED:
4686                 if (!res->in_erp)
4687                         res->needs_sync_complete = 1;
4688                 scsi_cmd->result |= (DID_IMM_RETRY << 16);
4689                 break;
4690         case IPR_IOASC_MED_DO_NOT_REALLOC: /* prevent retries */
4691         case IPR_IOASA_IR_DUAL_IOA_DISABLED:
4692                 scsi_cmd->result |= (DID_PASSTHROUGH << 16);
4693                 break;
4694         case IPR_IOASC_BUS_WAS_RESET:
4695         case IPR_IOASC_BUS_WAS_RESET_BY_OTHER:
4696                 /*
4697                  * Report the bus reset and ask for a retry. The device
4698                  * will give CC/UA the next command.
4699                  */
4700                 if (!res->resetting_device)
4701                         scsi_report_bus_reset(ioa_cfg->host, scsi_cmd->device->channel);
4702                 scsi_cmd->result |= (DID_ERROR << 16);
4703                 if (!ipr_is_naca_model(res))
4704                         res->needs_sync_complete = 1;
4705                 break;
4706         case IPR_IOASC_HW_DEV_BUS_STATUS:
4707                 scsi_cmd->result |= IPR_IOASC_SENSE_STATUS(ioasc);
4708                 if (IPR_IOASC_SENSE_STATUS(ioasc) == SAM_STAT_CHECK_CONDITION) {
4709                         if (!ipr_get_autosense(ipr_cmd)) {
4710                                 if (!ipr_is_naca_model(res)) {
4711                                         ipr_erp_cancel_all(ipr_cmd);
4712                                         return;
4713                                 }
4714                         }
4715                 }
4716                 if (!ipr_is_naca_model(res))
4717                         res->needs_sync_complete = 1;
4718                 break;
4719         case IPR_IOASC_NR_INIT_CMD_REQUIRED:
4720                 break;
4721         default:
4722                 if (IPR_IOASC_SENSE_KEY(ioasc) > RECOVERED_ERROR)
4723                         scsi_cmd->result |= (DID_ERROR << 16);
4724                 if (!ipr_is_vset_device(res) && !ipr_is_naca_model(res))
4725                         res->needs_sync_complete = 1;
4726                 break;
4727         }
4728
4729         ipr_unmap_sglist(ioa_cfg, ipr_cmd);
4730         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
4731         scsi_cmd->scsi_done(scsi_cmd);
4732 }
4733
4734 /**
4735  * ipr_scsi_done - mid-layer done function
4736  * @ipr_cmd:    ipr command struct
4737  *
4738  * This function is invoked by the interrupt handler for
4739  * ops generated by the SCSI mid-layer
4740  *
4741  * Return value:
4742  *      none
4743  **/
4744 static void ipr_scsi_done(struct ipr_cmnd *ipr_cmd)
4745 {
4746         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
4747         struct scsi_cmnd *scsi_cmd = ipr_cmd->scsi_cmd;
4748         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
4749
4750         scsi_cmd->resid = be32_to_cpu(ipr_cmd->ioasa.residual_data_len);
4751
4752         if (likely(IPR_IOASC_SENSE_KEY(ioasc) == 0)) {
4753                 ipr_unmap_sglist(ioa_cfg, ipr_cmd);
4754                 list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
4755                 scsi_cmd->scsi_done(scsi_cmd);
4756         } else
4757                 ipr_erp_start(ioa_cfg, ipr_cmd);
4758 }
4759
4760 /**
4761  * ipr_queuecommand - Queue a mid-layer request
4762  * @scsi_cmd:   scsi command struct
4763  * @done:               done function
4764  *
4765  * This function queues a request generated by the mid-layer.
4766  *
4767  * Return value:
4768  *      0 on success
4769  *      SCSI_MLQUEUE_DEVICE_BUSY if device is busy
4770  *      SCSI_MLQUEUE_HOST_BUSY if host is busy
4771  **/
4772 static int ipr_queuecommand(struct scsi_cmnd *scsi_cmd,
4773                             void (*done) (struct scsi_cmnd *))
4774 {
4775         struct ipr_ioa_cfg *ioa_cfg;
4776         struct ipr_resource_entry *res;
4777         struct ipr_ioarcb *ioarcb;
4778         struct ipr_cmnd *ipr_cmd;
4779         int rc = 0;
4780
4781         scsi_cmd->scsi_done = done;
4782         ioa_cfg = (struct ipr_ioa_cfg *)scsi_cmd->device->host->hostdata;
4783         res = scsi_cmd->device->hostdata;
4784         scsi_cmd->result = (DID_OK << 16);
4785
4786         /*
4787          * We are currently blocking all devices due to a host reset
4788          * We have told the host to stop giving us new requests, but
4789          * ERP ops don't count. FIXME
4790          */
4791         if (unlikely(!ioa_cfg->allow_cmds && !ioa_cfg->ioa_is_dead))
4792                 return SCSI_MLQUEUE_HOST_BUSY;
4793
4794         /*
4795          * FIXME - Create scsi_set_host_offline interface
4796          *  and the ioa_is_dead check can be removed
4797          */
4798         if (unlikely(ioa_cfg->ioa_is_dead || !res)) {
4799                 memset(scsi_cmd->sense_buffer, 0, SCSI_SENSE_BUFFERSIZE);
4800                 scsi_cmd->result = (DID_NO_CONNECT << 16);
4801                 scsi_cmd->scsi_done(scsi_cmd);
4802                 return 0;
4803         }
4804
4805         if (ipr_is_gata(res) && res->sata_port)
4806                 return ata_sas_queuecmd(scsi_cmd, done, res->sata_port->ap);
4807
4808         ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
4809         ioarcb = &ipr_cmd->ioarcb;
4810         list_add_tail(&ipr_cmd->queue, &ioa_cfg->pending_q);
4811
4812         memcpy(ioarcb->cmd_pkt.cdb, scsi_cmd->cmnd, scsi_cmd->cmd_len);
4813         ipr_cmd->scsi_cmd = scsi_cmd;
4814         ioarcb->res_handle = res->cfgte.res_handle;
4815         ipr_cmd->done = ipr_scsi_done;
4816         ipr_trc_hook(ipr_cmd, IPR_TRACE_START, IPR_GET_PHYS_LOC(res->cfgte.res_addr));
4817
4818         if (ipr_is_gscsi(res) || ipr_is_vset_device(res)) {
4819                 if (scsi_cmd->underflow == 0)
4820                         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_NO_ULEN_CHK;
4821
4822                 if (res->needs_sync_complete) {
4823                         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_SYNC_COMPLETE;
4824                         res->needs_sync_complete = 0;
4825                 }
4826
4827                 ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_NO_LINK_DESC;
4828                 ioarcb->cmd_pkt.flags_lo |= IPR_FLAGS_LO_DELAY_AFTER_RST;
4829                 ioarcb->cmd_pkt.flags_lo |= IPR_FLAGS_LO_ALIGNED_BFR;
4830                 ioarcb->cmd_pkt.flags_lo |= ipr_get_task_attributes(scsi_cmd);
4831         }
4832
4833         if (scsi_cmd->cmnd[0] >= 0xC0 &&
4834             (!ipr_is_gscsi(res) || scsi_cmd->cmnd[0] == IPR_QUERY_RSRC_STATE))
4835                 ioarcb->cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
4836
4837         if (likely(rc == 0))
4838                 rc = ipr_build_ioadl(ioa_cfg, ipr_cmd);
4839
4840         if (likely(rc == 0)) {
4841                 mb();
4842                 writel(be32_to_cpu(ipr_cmd->ioarcb.ioarcb_host_pci_addr),
4843                        ioa_cfg->regs.ioarrin_reg);
4844         } else {
4845                  list_move_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
4846                  return SCSI_MLQUEUE_HOST_BUSY;
4847         }
4848
4849         return 0;
4850 }
4851
4852 /**
4853  * ipr_ioctl - IOCTL handler
4854  * @sdev:       scsi device struct
4855  * @cmd:        IOCTL cmd
4856  * @arg:        IOCTL arg
4857  *
4858  * Return value:
4859  *      0 on success / other on failure
4860  **/
4861 static int ipr_ioctl(struct scsi_device *sdev, int cmd, void __user *arg)
4862 {
4863         struct ipr_resource_entry *res;
4864
4865         res = (struct ipr_resource_entry *)sdev->hostdata;
4866         if (res && ipr_is_gata(res))
4867                 return ata_scsi_ioctl(sdev, cmd, arg);
4868
4869         return -EINVAL;
4870 }
4871
4872 /**
4873  * ipr_info - Get information about the card/driver
4874  * @scsi_host:  scsi host struct
4875  *
4876  * Return value:
4877  *      pointer to buffer with description string
4878  **/
4879 static const char * ipr_ioa_info(struct Scsi_Host *host)
4880 {
4881         static char buffer[512];
4882         struct ipr_ioa_cfg *ioa_cfg;
4883         unsigned long lock_flags = 0;
4884
4885         ioa_cfg = (struct ipr_ioa_cfg *) host->hostdata;
4886
4887         spin_lock_irqsave(host->host_lock, lock_flags);
4888         sprintf(buffer, "IBM %X Storage Adapter", ioa_cfg->type);
4889         spin_unlock_irqrestore(host->host_lock, lock_flags);
4890
4891         return buffer;
4892 }
4893
4894 static struct scsi_host_template driver_template = {
4895         .module = THIS_MODULE,
4896         .name = "IPR",
4897         .info = ipr_ioa_info,
4898         .ioctl = ipr_ioctl,
4899         .queuecommand = ipr_queuecommand,
4900         .eh_abort_handler = ipr_eh_abort,
4901         .eh_device_reset_handler = ipr_eh_dev_reset,
4902         .eh_host_reset_handler = ipr_eh_host_reset,
4903         .slave_alloc = ipr_slave_alloc,
4904         .slave_configure = ipr_slave_configure,
4905         .slave_destroy = ipr_slave_destroy,
4906         .target_alloc = ipr_target_alloc,
4907         .target_destroy = ipr_target_destroy,
4908         .change_queue_depth = ipr_change_queue_depth,
4909         .change_queue_type = ipr_change_queue_type,
4910         .bios_param = ipr_biosparam,
4911         .can_queue = IPR_MAX_COMMANDS,
4912         .this_id = -1,
4913         .sg_tablesize = IPR_MAX_SGLIST,
4914         .max_sectors = IPR_IOA_MAX_SECTORS,
4915         .cmd_per_lun = IPR_MAX_CMD_PER_LUN,
4916         .use_clustering = ENABLE_CLUSTERING,
4917         .shost_attrs = ipr_ioa_attrs,
4918         .sdev_attrs = ipr_dev_attrs,
4919         .proc_name = IPR_NAME
4920 };
4921
4922 /**
4923  * ipr_ata_phy_reset - libata phy_reset handler
4924  * @ap:         ata port to reset
4925  *
4926  **/
4927 static void ipr_ata_phy_reset(struct ata_port *ap)
4928 {
4929         unsigned long flags;
4930         struct ipr_sata_port *sata_port = ap->private_data;
4931         struct ipr_resource_entry *res = sata_port->res;
4932         struct ipr_ioa_cfg *ioa_cfg = sata_port->ioa_cfg;
4933         int rc;
4934
4935         ENTER;
4936         spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
4937         while(ioa_cfg->in_reset_reload) {
4938                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
4939                 wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
4940                 spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
4941         }
4942
4943         if (!ioa_cfg->allow_cmds)
4944                 goto out_unlock;
4945
4946         rc = ipr_device_reset(ioa_cfg, res);
4947
4948         if (rc) {
4949                 ap->ops->port_disable(ap);
4950                 goto out_unlock;
4951         }
4952
4953         switch(res->cfgte.proto) {
4954         case IPR_PROTO_SATA:
4955         case IPR_PROTO_SAS_STP:
4956                 ap->device[0].class = ATA_DEV_ATA;
4957                 break;
4958         case IPR_PROTO_SATA_ATAPI:
4959         case IPR_PROTO_SAS_STP_ATAPI:
4960                 ap->device[0].class = ATA_DEV_ATAPI;
4961                 break;
4962         default:
4963                 ap->device[0].class = ATA_DEV_UNKNOWN;
4964                 ap->ops->port_disable(ap);
4965                 break;
4966         };
4967
4968 out_unlock:
4969         spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
4970         LEAVE;
4971 }
4972
4973 /**
4974  * ipr_ata_post_internal - Cleanup after an internal command
4975  * @qc: ATA queued command
4976  *
4977  * Return value:
4978  *      none
4979  **/
4980 static void ipr_ata_post_internal(struct ata_queued_cmd *qc)
4981 {
4982         struct ipr_sata_port *sata_port = qc->ap->private_data;
4983         struct ipr_ioa_cfg *ioa_cfg = sata_port->ioa_cfg;
4984         struct ipr_cmnd *ipr_cmd;
4985         unsigned long flags;
4986
4987         spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
4988         while(ioa_cfg->in_reset_reload) {
4989                 spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
4990                 wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
4991                 spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
4992         }
4993
4994         list_for_each_entry(ipr_cmd, &ioa_cfg->pending_q, queue) {
4995                 if (ipr_cmd->qc == qc) {
4996                         ipr_device_reset(ioa_cfg, sata_port->res);
4997                         break;
4998                 }
4999         }
5000         spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
5001 }
5002
5003 /**
5004  * ipr_tf_read - Read the current ATA taskfile for the ATA port
5005  * @ap: ATA port
5006  * @tf: destination ATA taskfile
5007  *
5008  * Return value:
5009  *      none
5010  **/
5011 static void ipr_tf_read(struct ata_port *ap, struct ata_taskfile *tf)
5012 {
5013         struct ipr_sata_port *sata_port = ap->private_data;
5014         struct ipr_ioasa_gata *g = &sata_port->ioasa;
5015
5016         tf->feature = g->error;
5017         tf->nsect = g->nsect;
5018         tf->lbal = g->lbal;
5019         tf->lbam = g->lbam;
5020         tf->lbah = g->lbah;
5021         tf->device = g->device;
5022         tf->command = g->status;
5023         tf->hob_nsect = g->hob_nsect;
5024         tf->hob_lbal = g->hob_lbal;
5025         tf->hob_lbam = g->hob_lbam;
5026         tf->hob_lbah = g->hob_lbah;
5027         tf->ctl = g->alt_status;
5028 }
5029
5030 /**
5031  * ipr_copy_sata_tf - Copy a SATA taskfile to an IOA data structure
5032  * @regs:       destination
5033  * @tf: source ATA taskfile
5034  *
5035  * Return value:
5036  *      none
5037  **/
5038 static void ipr_copy_sata_tf(struct ipr_ioarcb_ata_regs *regs,
5039                              struct ata_taskfile *tf)
5040 {
5041         regs->feature = tf->feature;
5042         regs->nsect = tf->nsect;
5043         regs->lbal = tf->lbal;
5044         regs->lbam = tf->lbam;
5045         regs->lbah = tf->lbah;
5046         regs->device = tf->device;
5047         regs->command = tf->command;
5048         regs->hob_feature = tf->hob_feature;
5049         regs->hob_nsect = tf->hob_nsect;
5050         regs->hob_lbal = tf->hob_lbal;
5051         regs->hob_lbam = tf->hob_lbam;
5052         regs->hob_lbah = tf->hob_lbah;
5053         regs->ctl = tf->ctl;
5054 }
5055
5056 /**
5057  * ipr_sata_done - done function for SATA commands
5058  * @ipr_cmd:    ipr command struct
5059  *
5060  * This function is invoked by the interrupt handler for
5061  * ops generated by the SCSI mid-layer to SATA devices
5062  *
5063  * Return value:
5064  *      none
5065  **/
5066 static void ipr_sata_done(struct ipr_cmnd *ipr_cmd)
5067 {
5068         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5069         struct ata_queued_cmd *qc = ipr_cmd->qc;
5070         struct ipr_sata_port *sata_port = qc->ap->private_data;
5071         struct ipr_resource_entry *res = sata_port->res;
5072         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
5073
5074         memcpy(&sata_port->ioasa, &ipr_cmd->ioasa.u.gata,
5075                sizeof(struct ipr_ioasa_gata));
5076         ipr_dump_ioasa(ioa_cfg, ipr_cmd, res);
5077
5078         if (be32_to_cpu(ipr_cmd->ioasa.ioasc_specific) & IPR_ATA_DEVICE_WAS_RESET)
5079                 scsi_report_device_reset(ioa_cfg->host, res->cfgte.res_addr.bus,
5080                                          res->cfgte.res_addr.target);
5081
5082         if (IPR_IOASC_SENSE_KEY(ioasc) > RECOVERED_ERROR)
5083                 qc->err_mask |= __ac_err_mask(ipr_cmd->ioasa.u.gata.status);
5084         else
5085                 qc->err_mask |= ac_err_mask(ipr_cmd->ioasa.u.gata.status);
5086         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
5087         ata_qc_complete(qc);
5088 }
5089
5090 /**
5091  * ipr_build_ata_ioadl - Build an ATA scatter/gather list
5092  * @ipr_cmd:    ipr command struct
5093  * @qc:         ATA queued command
5094  *
5095  **/
5096 static void ipr_build_ata_ioadl(struct ipr_cmnd *ipr_cmd,
5097                                 struct ata_queued_cmd *qc)
5098 {
5099         u32 ioadl_flags = 0;
5100         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5101         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5102         int len = qc->nbytes + qc->pad_len;
5103         struct scatterlist *sg;
5104
5105         if (len == 0)
5106                 return;
5107
5108         if (qc->dma_dir == DMA_TO_DEVICE) {
5109                 ioadl_flags = IPR_IOADL_FLAGS_WRITE;
5110                 ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
5111                 ioarcb->write_data_transfer_length = cpu_to_be32(len);
5112                 ioarcb->write_ioadl_len =
5113                         cpu_to_be32(sizeof(struct ipr_ioadl_desc) * ipr_cmd->dma_use_sg);
5114         } else if (qc->dma_dir == DMA_FROM_DEVICE) {
5115                 ioadl_flags = IPR_IOADL_FLAGS_READ;
5116                 ioarcb->read_data_transfer_length = cpu_to_be32(len);
5117                 ioarcb->read_ioadl_len =
5118                         cpu_to_be32(sizeof(struct ipr_ioadl_desc) * ipr_cmd->dma_use_sg);
5119         }
5120
5121         ata_for_each_sg(sg, qc) {
5122                 ioadl->flags_and_data_len = cpu_to_be32(ioadl_flags | sg_dma_len(sg));
5123                 ioadl->address = cpu_to_be32(sg_dma_address(sg));
5124                 if (ata_sg_is_last(sg, qc))
5125                         ioadl->flags_and_data_len |= cpu_to_be32(IPR_IOADL_FLAGS_LAST);
5126                 else
5127                         ioadl++;
5128         }
5129 }
5130
5131 /**
5132  * ipr_qc_issue - Issue a SATA qc to a device
5133  * @qc: queued command
5134  *
5135  * Return value:
5136  *      0 if success
5137  **/
5138 static unsigned int ipr_qc_issue(struct ata_queued_cmd *qc)
5139 {
5140         struct ata_port *ap = qc->ap;
5141         struct ipr_sata_port *sata_port = ap->private_data;
5142         struct ipr_resource_entry *res = sata_port->res;
5143         struct ipr_ioa_cfg *ioa_cfg = sata_port->ioa_cfg;
5144         struct ipr_cmnd *ipr_cmd;
5145         struct ipr_ioarcb *ioarcb;
5146         struct ipr_ioarcb_ata_regs *regs;
5147
5148         if (unlikely(!ioa_cfg->allow_cmds || ioa_cfg->ioa_is_dead))
5149                 return AC_ERR_SYSTEM;
5150
5151         ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
5152         ioarcb = &ipr_cmd->ioarcb;
5153         regs = &ioarcb->add_data.u.regs;
5154
5155         memset(&ioarcb->add_data, 0, sizeof(ioarcb->add_data));
5156         ioarcb->add_cmd_parms_len = cpu_to_be32(sizeof(ioarcb->add_data.u.regs));
5157
5158         list_add_tail(&ipr_cmd->queue, &ioa_cfg->pending_q);
5159         ipr_cmd->qc = qc;
5160         ipr_cmd->done = ipr_sata_done;
5161         ipr_cmd->ioarcb.res_handle = res->cfgte.res_handle;
5162         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_ATA_PASSTHRU;
5163         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_NO_LINK_DESC;
5164         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_NO_ULEN_CHK;
5165         ipr_cmd->dma_use_sg = qc->pad_len ? qc->n_elem + 1 : qc->n_elem;
5166
5167         ipr_build_ata_ioadl(ipr_cmd, qc);
5168         regs->flags |= IPR_ATA_FLAG_STATUS_ON_GOOD_COMPLETION;
5169         ipr_copy_sata_tf(regs, &qc->tf);
5170         memcpy(ioarcb->cmd_pkt.cdb, qc->cdb, IPR_MAX_CDB_LEN);
5171         ipr_trc_hook(ipr_cmd, IPR_TRACE_START, IPR_GET_PHYS_LOC(res->cfgte.res_addr));
5172
5173         switch (qc->tf.protocol) {
5174         case ATA_PROT_NODATA:
5175         case ATA_PROT_PIO:
5176                 break;
5177
5178         case ATA_PROT_DMA:
5179                 regs->flags |= IPR_ATA_FLAG_XFER_TYPE_DMA;
5180                 break;
5181
5182         case ATA_PROT_ATAPI:
5183         case ATA_PROT_ATAPI_NODATA:
5184                 regs->flags |= IPR_ATA_FLAG_PACKET_CMD;
5185                 break;
5186
5187         case ATA_PROT_ATAPI_DMA:
5188                 regs->flags |= IPR_ATA_FLAG_PACKET_CMD;
5189                 regs->flags |= IPR_ATA_FLAG_XFER_TYPE_DMA;
5190                 break;
5191
5192         default:
5193                 WARN_ON(1);
5194                 return AC_ERR_INVALID;
5195         }
5196
5197         mb();
5198         writel(be32_to_cpu(ioarcb->ioarcb_host_pci_addr),
5199                ioa_cfg->regs.ioarrin_reg);
5200         return 0;
5201 }
5202
5203 /**
5204  * ipr_ata_check_status - Return last ATA status
5205  * @ap: ATA port
5206  *
5207  * Return value:
5208  *      ATA status
5209  **/
5210 static u8 ipr_ata_check_status(struct ata_port *ap)
5211 {
5212         struct ipr_sata_port *sata_port = ap->private_data;
5213         return sata_port->ioasa.status;
5214 }
5215
5216 /**
5217  * ipr_ata_check_altstatus - Return last ATA altstatus
5218  * @ap: ATA port
5219  *
5220  * Return value:
5221  *      Alt ATA status
5222  **/
5223 static u8 ipr_ata_check_altstatus(struct ata_port *ap)
5224 {
5225         struct ipr_sata_port *sata_port = ap->private_data;
5226         return sata_port->ioasa.alt_status;
5227 }
5228
5229 static struct ata_port_operations ipr_sata_ops = {
5230         .port_disable = ata_port_disable,
5231         .check_status = ipr_ata_check_status,
5232         .check_altstatus = ipr_ata_check_altstatus,
5233         .dev_select = ata_noop_dev_select,
5234         .phy_reset = ipr_ata_phy_reset,
5235         .post_internal_cmd = ipr_ata_post_internal,
5236         .tf_read = ipr_tf_read,
5237         .qc_prep = ata_noop_qc_prep,
5238         .qc_issue = ipr_qc_issue,
5239         .port_start = ata_sas_port_start,
5240         .port_stop = ata_sas_port_stop
5241 };
5242
5243 static struct ata_port_info sata_port_info = {
5244         .flags  = ATA_FLAG_SATA | ATA_FLAG_NO_LEGACY | ATA_FLAG_SATA_RESET |
5245         ATA_FLAG_MMIO | ATA_FLAG_PIO_DMA,
5246         .pio_mask       = 0x10, /* pio4 */
5247         .mwdma_mask = 0x07,
5248         .udma_mask      = 0x7f, /* udma0-6 */
5249         .port_ops       = &ipr_sata_ops
5250 };
5251
5252 #ifdef CONFIG_PPC_PSERIES
5253 static const u16 ipr_blocked_processors[] = {
5254         PV_NORTHSTAR,
5255         PV_PULSAR,
5256         PV_POWER4,
5257         PV_ICESTAR,
5258         PV_SSTAR,
5259         PV_POWER4p,
5260         PV_630,
5261         PV_630p
5262 };
5263
5264 /**
5265  * ipr_invalid_adapter - Determine if this adapter is supported on this hardware
5266  * @ioa_cfg:    ioa cfg struct
5267  *
5268  * Adapters that use Gemstone revision < 3.1 do not work reliably on
5269  * certain pSeries hardware. This function determines if the given
5270  * adapter is in one of these confgurations or not.
5271  *
5272  * Return value:
5273  *      1 if adapter is not supported / 0 if adapter is supported
5274  **/
5275 static int ipr_invalid_adapter(struct ipr_ioa_cfg *ioa_cfg)
5276 {
5277         u8 rev_id;
5278         int i;
5279
5280         if (ioa_cfg->type == 0x5702) {
5281                 if (pci_read_config_byte(ioa_cfg->pdev, PCI_REVISION_ID,
5282                                          &rev_id) == PCIBIOS_SUCCESSFUL) {
5283                         if (rev_id < 4) {
5284                                 for (i = 0; i < ARRAY_SIZE(ipr_blocked_processors); i++){
5285                                         if (__is_processor(ipr_blocked_processors[i]))
5286                                                 return 1;
5287                                 }
5288                         }
5289                 }
5290         }
5291         return 0;
5292 }
5293 #else
5294 #define ipr_invalid_adapter(ioa_cfg) 0
5295 #endif
5296
5297 /**
5298  * ipr_ioa_bringdown_done - IOA bring down completion.
5299  * @ipr_cmd:    ipr command struct
5300  *
5301  * This function processes the completion of an adapter bring down.
5302  * It wakes any reset sleepers.
5303  *
5304  * Return value:
5305  *      IPR_RC_JOB_RETURN
5306  **/
5307 static int ipr_ioa_bringdown_done(struct ipr_cmnd *ipr_cmd)
5308 {
5309         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5310
5311         ENTER;
5312         ioa_cfg->in_reset_reload = 0;
5313         ioa_cfg->reset_retries = 0;
5314         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
5315         wake_up_all(&ioa_cfg->reset_wait_q);
5316
5317         spin_unlock_irq(ioa_cfg->host->host_lock);
5318         scsi_unblock_requests(ioa_cfg->host);
5319         spin_lock_irq(ioa_cfg->host->host_lock);
5320         LEAVE;
5321
5322         return IPR_RC_JOB_RETURN;
5323 }
5324
5325 /**
5326  * ipr_ioa_reset_done - IOA reset completion.
5327  * @ipr_cmd:    ipr command struct
5328  *
5329  * This function processes the completion of an adapter reset.
5330  * It schedules any necessary mid-layer add/removes and
5331  * wakes any reset sleepers.
5332  *
5333  * Return value:
5334  *      IPR_RC_JOB_RETURN
5335  **/
5336 static int ipr_ioa_reset_done(struct ipr_cmnd *ipr_cmd)
5337 {
5338         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5339         struct ipr_resource_entry *res;
5340         struct ipr_hostrcb *hostrcb, *temp;
5341         int i = 0;
5342
5343         ENTER;
5344         ioa_cfg->in_reset_reload = 0;
5345         ioa_cfg->allow_cmds = 1;
5346         ioa_cfg->reset_cmd = NULL;
5347         ioa_cfg->doorbell |= IPR_RUNTIME_RESET;
5348
5349         list_for_each_entry(res, &ioa_cfg->used_res_q, queue) {
5350                 if (ioa_cfg->allow_ml_add_del && (res->add_to_ml || res->del_from_ml)) {
5351                         ipr_trace;
5352                         break;
5353                 }
5354         }
5355         schedule_work(&ioa_cfg->work_q);
5356
5357         list_for_each_entry_safe(hostrcb, temp, &ioa_cfg->hostrcb_free_q, queue) {
5358                 list_del(&hostrcb->queue);
5359                 if (i++ < IPR_NUM_LOG_HCAMS)
5360                         ipr_send_hcam(ioa_cfg, IPR_HCAM_CDB_OP_CODE_LOG_DATA, hostrcb);
5361                 else
5362                         ipr_send_hcam(ioa_cfg, IPR_HCAM_CDB_OP_CODE_CONFIG_CHANGE, hostrcb);
5363         }
5364
5365         dev_info(&ioa_cfg->pdev->dev, "IOA initialized.\n");
5366
5367         ioa_cfg->reset_retries = 0;
5368         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
5369         wake_up_all(&ioa_cfg->reset_wait_q);
5370
5371         spin_unlock_irq(ioa_cfg->host->host_lock);
5372         scsi_unblock_requests(ioa_cfg->host);
5373         spin_lock_irq(ioa_cfg->host->host_lock);
5374
5375         if (!ioa_cfg->allow_cmds)
5376                 scsi_block_requests(ioa_cfg->host);
5377
5378         LEAVE;
5379         return IPR_RC_JOB_RETURN;
5380 }
5381
5382 /**
5383  * ipr_set_sup_dev_dflt - Initialize a Set Supported Device buffer
5384  * @supported_dev:      supported device struct
5385  * @vpids:                      vendor product id struct
5386  *
5387  * Return value:
5388  *      none
5389  **/
5390 static void ipr_set_sup_dev_dflt(struct ipr_supported_device *supported_dev,
5391                                  struct ipr_std_inq_vpids *vpids)
5392 {
5393         memset(supported_dev, 0, sizeof(struct ipr_supported_device));
5394         memcpy(&supported_dev->vpids, vpids, sizeof(struct ipr_std_inq_vpids));
5395         supported_dev->num_records = 1;
5396         supported_dev->data_length =
5397                 cpu_to_be16(sizeof(struct ipr_supported_device));
5398         supported_dev->reserved = 0;
5399 }
5400
5401 /**
5402  * ipr_set_supported_devs - Send Set Supported Devices for a device
5403  * @ipr_cmd:    ipr command struct
5404  *
5405  * This function send a Set Supported Devices to the adapter
5406  *
5407  * Return value:
5408  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
5409  **/
5410 static int ipr_set_supported_devs(struct ipr_cmnd *ipr_cmd)
5411 {
5412         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5413         struct ipr_supported_device *supp_dev = &ioa_cfg->vpd_cbs->supp_dev;
5414         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5415         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5416         struct ipr_resource_entry *res = ipr_cmd->u.res;
5417
5418         ipr_cmd->job_step = ipr_ioa_reset_done;
5419
5420         list_for_each_entry_continue(res, &ioa_cfg->used_res_q, queue) {
5421                 if (!ipr_is_scsi_disk(res))
5422                         continue;
5423
5424                 ipr_cmd->u.res = res;
5425                 ipr_set_sup_dev_dflt(supp_dev, &res->cfgte.std_inq_data.vpids);
5426
5427                 ioarcb->res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
5428                 ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
5429                 ioarcb->cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
5430
5431                 ioarcb->cmd_pkt.cdb[0] = IPR_SET_SUPPORTED_DEVICES;
5432                 ioarcb->cmd_pkt.cdb[7] = (sizeof(struct ipr_supported_device) >> 8) & 0xff;
5433                 ioarcb->cmd_pkt.cdb[8] = sizeof(struct ipr_supported_device) & 0xff;
5434
5435                 ioadl->flags_and_data_len = cpu_to_be32(IPR_IOADL_FLAGS_WRITE_LAST |
5436                                                         sizeof(struct ipr_supported_device));
5437                 ioadl->address = cpu_to_be32(ioa_cfg->vpd_cbs_dma +
5438                                              offsetof(struct ipr_misc_cbs, supp_dev));
5439                 ioarcb->write_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
5440                 ioarcb->write_data_transfer_length =
5441                         cpu_to_be32(sizeof(struct ipr_supported_device));
5442
5443                 ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout,
5444                            IPR_SET_SUP_DEVICE_TIMEOUT);
5445
5446                 ipr_cmd->job_step = ipr_set_supported_devs;
5447                 return IPR_RC_JOB_RETURN;
5448         }
5449
5450         return IPR_RC_JOB_CONTINUE;
5451 }
5452
5453 /**
5454  * ipr_setup_write_cache - Disable write cache if needed
5455  * @ipr_cmd:    ipr command struct
5456  *
5457  * This function sets up adapters write cache to desired setting
5458  *
5459  * Return value:
5460  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
5461  **/
5462 static int ipr_setup_write_cache(struct ipr_cmnd *ipr_cmd)
5463 {
5464         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5465
5466         ipr_cmd->job_step = ipr_set_supported_devs;
5467         ipr_cmd->u.res = list_entry(ioa_cfg->used_res_q.next,
5468                                     struct ipr_resource_entry, queue);
5469
5470         if (ioa_cfg->cache_state != CACHE_DISABLED)
5471                 return IPR_RC_JOB_CONTINUE;
5472
5473         ipr_cmd->ioarcb.res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
5474         ipr_cmd->ioarcb.cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
5475         ipr_cmd->ioarcb.cmd_pkt.cdb[0] = IPR_IOA_SHUTDOWN;
5476         ipr_cmd->ioarcb.cmd_pkt.cdb[1] = IPR_SHUTDOWN_PREPARE_FOR_NORMAL;
5477
5478         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
5479
5480         return IPR_RC_JOB_RETURN;
5481 }
5482
5483 /**
5484  * ipr_get_mode_page - Locate specified mode page
5485  * @mode_pages: mode page buffer
5486  * @page_code:  page code to find
5487  * @len:                minimum required length for mode page
5488  *
5489  * Return value:
5490  *      pointer to mode page / NULL on failure
5491  **/
5492 static void *ipr_get_mode_page(struct ipr_mode_pages *mode_pages,
5493                                u32 page_code, u32 len)
5494 {
5495         struct ipr_mode_page_hdr *mode_hdr;
5496         u32 page_length;
5497         u32 length;
5498
5499         if (!mode_pages || (mode_pages->hdr.length == 0))
5500                 return NULL;
5501
5502         length = (mode_pages->hdr.length + 1) - 4 - mode_pages->hdr.block_desc_len;
5503         mode_hdr = (struct ipr_mode_page_hdr *)
5504                 (mode_pages->data + mode_pages->hdr.block_desc_len);
5505
5506         while (length) {
5507                 if (IPR_GET_MODE_PAGE_CODE(mode_hdr) == page_code) {
5508                         if (mode_hdr->page_length >= (len - sizeof(struct ipr_mode_page_hdr)))
5509                                 return mode_hdr;
5510                         break;
5511                 } else {
5512                         page_length = (sizeof(struct ipr_mode_page_hdr) +
5513                                        mode_hdr->page_length);
5514                         length -= page_length;
5515                         mode_hdr = (struct ipr_mode_page_hdr *)
5516                                 ((unsigned long)mode_hdr + page_length);
5517                 }
5518         }
5519         return NULL;
5520 }
5521
5522 /**
5523  * ipr_check_term_power - Check for term power errors
5524  * @ioa_cfg:    ioa config struct
5525  * @mode_pages: IOAFP mode pages buffer
5526  *
5527  * Check the IOAFP's mode page 28 for term power errors
5528  *
5529  * Return value:
5530  *      nothing
5531  **/
5532 static void ipr_check_term_power(struct ipr_ioa_cfg *ioa_cfg,
5533                                  struct ipr_mode_pages *mode_pages)
5534 {
5535         int i;
5536         int entry_length;
5537         struct ipr_dev_bus_entry *bus;
5538         struct ipr_mode_page28 *mode_page;
5539
5540         mode_page = ipr_get_mode_page(mode_pages, 0x28,
5541                                       sizeof(struct ipr_mode_page28));
5542
5543         entry_length = mode_page->entry_length;
5544
5545         bus = mode_page->bus;
5546
5547         for (i = 0; i < mode_page->num_entries; i++) {
5548                 if (bus->flags & IPR_SCSI_ATTR_NO_TERM_PWR) {
5549                         dev_err(&ioa_cfg->pdev->dev,
5550                                 "Term power is absent on scsi bus %d\n",
5551                                 bus->res_addr.bus);
5552                 }
5553
5554                 bus = (struct ipr_dev_bus_entry *)((char *)bus + entry_length);
5555         }
5556 }
5557
5558 /**
5559  * ipr_scsi_bus_speed_limit - Limit the SCSI speed based on SES table
5560  * @ioa_cfg:    ioa config struct
5561  *
5562  * Looks through the config table checking for SES devices. If
5563  * the SES device is in the SES table indicating a maximum SCSI
5564  * bus speed, the speed is limited for the bus.
5565  *
5566  * Return value:
5567  *      none
5568  **/
5569 static void ipr_scsi_bus_speed_limit(struct ipr_ioa_cfg *ioa_cfg)
5570 {
5571         u32 max_xfer_rate;
5572         int i;
5573
5574         for (i = 0; i < IPR_MAX_NUM_BUSES; i++) {
5575                 max_xfer_rate = ipr_get_max_scsi_speed(ioa_cfg, i,
5576                                                        ioa_cfg->bus_attr[i].bus_width);
5577
5578                 if (max_xfer_rate < ioa_cfg->bus_attr[i].max_xfer_rate)
5579                         ioa_cfg->bus_attr[i].max_xfer_rate = max_xfer_rate;
5580         }
5581 }
5582
5583 /**
5584  * ipr_modify_ioafp_mode_page_28 - Modify IOAFP Mode Page 28
5585  * @ioa_cfg:    ioa config struct
5586  * @mode_pages: mode page 28 buffer
5587  *
5588  * Updates mode page 28 based on driver configuration
5589  *
5590  * Return value:
5591  *      none
5592  **/
5593 static void ipr_modify_ioafp_mode_page_28(struct ipr_ioa_cfg *ioa_cfg,
5594                                                 struct ipr_mode_pages *mode_pages)
5595 {
5596         int i, entry_length;
5597         struct ipr_dev_bus_entry *bus;
5598         struct ipr_bus_attributes *bus_attr;
5599         struct ipr_mode_page28 *mode_page;
5600
5601         mode_page = ipr_get_mode_page(mode_pages, 0x28,
5602                                       sizeof(struct ipr_mode_page28));
5603
5604         entry_length = mode_page->entry_length;
5605
5606         /* Loop for each device bus entry */
5607         for (i = 0, bus = mode_page->bus;
5608              i < mode_page->num_entries;
5609              i++, bus = (struct ipr_dev_bus_entry *)((u8 *)bus + entry_length)) {
5610                 if (bus->res_addr.bus > IPR_MAX_NUM_BUSES) {
5611                         dev_err(&ioa_cfg->pdev->dev,
5612                                 "Invalid resource address reported: 0x%08X\n",
5613                                 IPR_GET_PHYS_LOC(bus->res_addr));
5614                         continue;
5615                 }
5616
5617                 bus_attr = &ioa_cfg->bus_attr[i];
5618                 bus->extended_reset_delay = IPR_EXTENDED_RESET_DELAY;
5619                 bus->bus_width = bus_attr->bus_width;
5620                 bus->max_xfer_rate = cpu_to_be32(bus_attr->max_xfer_rate);
5621                 bus->flags &= ~IPR_SCSI_ATTR_QAS_MASK;
5622                 if (bus_attr->qas_enabled)
5623                         bus->flags |= IPR_SCSI_ATTR_ENABLE_QAS;
5624                 else
5625                         bus->flags |= IPR_SCSI_ATTR_DISABLE_QAS;
5626         }
5627 }
5628
5629 /**
5630  * ipr_build_mode_select - Build a mode select command
5631  * @ipr_cmd:    ipr command struct
5632  * @res_handle: resource handle to send command to
5633  * @parm:               Byte 2 of Mode Sense command
5634  * @dma_addr:   DMA buffer address
5635  * @xfer_len:   data transfer length
5636  *
5637  * Return value:
5638  *      none
5639  **/
5640 static void ipr_build_mode_select(struct ipr_cmnd *ipr_cmd,
5641                                   __be32 res_handle, u8 parm, u32 dma_addr,
5642                                   u8 xfer_len)
5643 {
5644         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5645         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5646
5647         ioarcb->res_handle = res_handle;
5648         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_SCSICDB;
5649         ioarcb->cmd_pkt.flags_hi |= IPR_FLAGS_HI_WRITE_NOT_READ;
5650         ioarcb->cmd_pkt.cdb[0] = MODE_SELECT;
5651         ioarcb->cmd_pkt.cdb[1] = parm;
5652         ioarcb->cmd_pkt.cdb[4] = xfer_len;
5653
5654         ioadl->flags_and_data_len =
5655                 cpu_to_be32(IPR_IOADL_FLAGS_WRITE_LAST | xfer_len);
5656         ioadl->address = cpu_to_be32(dma_addr);
5657         ioarcb->write_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
5658         ioarcb->write_data_transfer_length = cpu_to_be32(xfer_len);
5659 }
5660
5661 /**
5662  * ipr_ioafp_mode_select_page28 - Issue Mode Select Page 28 to IOA
5663  * @ipr_cmd:    ipr command struct
5664  *
5665  * This function sets up the SCSI bus attributes and sends
5666  * a Mode Select for Page 28 to activate them.
5667  *
5668  * Return value:
5669  *      IPR_RC_JOB_RETURN
5670  **/
5671 static int ipr_ioafp_mode_select_page28(struct ipr_cmnd *ipr_cmd)
5672 {
5673         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5674         struct ipr_mode_pages *mode_pages = &ioa_cfg->vpd_cbs->mode_pages;
5675         int length;
5676
5677         ENTER;
5678         ipr_scsi_bus_speed_limit(ioa_cfg);
5679         ipr_check_term_power(ioa_cfg, mode_pages);
5680         ipr_modify_ioafp_mode_page_28(ioa_cfg, mode_pages);
5681         length = mode_pages->hdr.length + 1;
5682         mode_pages->hdr.length = 0;
5683
5684         ipr_build_mode_select(ipr_cmd, cpu_to_be32(IPR_IOA_RES_HANDLE), 0x11,
5685                               ioa_cfg->vpd_cbs_dma + offsetof(struct ipr_misc_cbs, mode_pages),
5686                               length);
5687
5688         ipr_cmd->job_step = ipr_setup_write_cache;
5689         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
5690
5691         LEAVE;
5692         return IPR_RC_JOB_RETURN;
5693 }
5694
5695 /**
5696  * ipr_build_mode_sense - Builds a mode sense command
5697  * @ipr_cmd:    ipr command struct
5698  * @res:                resource entry struct
5699  * @parm:               Byte 2 of mode sense command
5700  * @dma_addr:   DMA address of mode sense buffer
5701  * @xfer_len:   Size of DMA buffer
5702  *
5703  * Return value:
5704  *      none
5705  **/
5706 static void ipr_build_mode_sense(struct ipr_cmnd *ipr_cmd,
5707                                  __be32 res_handle,
5708                                  u8 parm, u32 dma_addr, u8 xfer_len)
5709 {
5710         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5711         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5712
5713         ioarcb->res_handle = res_handle;
5714         ioarcb->cmd_pkt.cdb[0] = MODE_SENSE;
5715         ioarcb->cmd_pkt.cdb[2] = parm;
5716         ioarcb->cmd_pkt.cdb[4] = xfer_len;
5717         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_SCSICDB;
5718
5719         ioadl->flags_and_data_len =
5720                 cpu_to_be32(IPR_IOADL_FLAGS_READ_LAST | xfer_len);
5721         ioadl->address = cpu_to_be32(dma_addr);
5722         ioarcb->read_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
5723         ioarcb->read_data_transfer_length = cpu_to_be32(xfer_len);
5724 }
5725
5726 /**
5727  * ipr_reset_cmd_failed - Handle failure of IOA reset command
5728  * @ipr_cmd:    ipr command struct
5729  *
5730  * This function handles the failure of an IOA bringup command.
5731  *
5732  * Return value:
5733  *      IPR_RC_JOB_RETURN
5734  **/
5735 static int ipr_reset_cmd_failed(struct ipr_cmnd *ipr_cmd)
5736 {
5737         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5738         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
5739
5740         dev_err(&ioa_cfg->pdev->dev,
5741                 "0x%02X failed with IOASC: 0x%08X\n",
5742                 ipr_cmd->ioarcb.cmd_pkt.cdb[0], ioasc);
5743
5744         ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
5745         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
5746         return IPR_RC_JOB_RETURN;
5747 }
5748
5749 /**
5750  * ipr_reset_mode_sense_failed - Handle failure of IOAFP mode sense
5751  * @ipr_cmd:    ipr command struct
5752  *
5753  * This function handles the failure of a Mode Sense to the IOAFP.
5754  * Some adapters do not handle all mode pages.
5755  *
5756  * Return value:
5757  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
5758  **/
5759 static int ipr_reset_mode_sense_failed(struct ipr_cmnd *ipr_cmd)
5760 {
5761         u32 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
5762
5763         if (ioasc == IPR_IOASC_IR_INVALID_REQ_TYPE_OR_PKT) {
5764                 ipr_cmd->job_step = ipr_setup_write_cache;
5765                 return IPR_RC_JOB_CONTINUE;
5766         }
5767
5768         return ipr_reset_cmd_failed(ipr_cmd);
5769 }
5770
5771 /**
5772  * ipr_ioafp_mode_sense_page28 - Issue Mode Sense Page 28 to IOA
5773  * @ipr_cmd:    ipr command struct
5774  *
5775  * This function send a Page 28 mode sense to the IOA to
5776  * retrieve SCSI bus attributes.
5777  *
5778  * Return value:
5779  *      IPR_RC_JOB_RETURN
5780  **/
5781 static int ipr_ioafp_mode_sense_page28(struct ipr_cmnd *ipr_cmd)
5782 {
5783         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5784
5785         ENTER;
5786         ipr_build_mode_sense(ipr_cmd, cpu_to_be32(IPR_IOA_RES_HANDLE),
5787                              0x28, ioa_cfg->vpd_cbs_dma +
5788                              offsetof(struct ipr_misc_cbs, mode_pages),
5789                              sizeof(struct ipr_mode_pages));
5790
5791         ipr_cmd->job_step = ipr_ioafp_mode_select_page28;
5792         ipr_cmd->job_step_failed = ipr_reset_mode_sense_failed;
5793
5794         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
5795
5796         LEAVE;
5797         return IPR_RC_JOB_RETURN;
5798 }
5799
5800 /**
5801  * ipr_init_res_table - Initialize the resource table
5802  * @ipr_cmd:    ipr command struct
5803  *
5804  * This function looks through the existing resource table, comparing
5805  * it with the config table. This function will take care of old/new
5806  * devices and schedule adding/removing them from the mid-layer
5807  * as appropriate.
5808  *
5809  * Return value:
5810  *      IPR_RC_JOB_CONTINUE
5811  **/
5812 static int ipr_init_res_table(struct ipr_cmnd *ipr_cmd)
5813 {
5814         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5815         struct ipr_resource_entry *res, *temp;
5816         struct ipr_config_table_entry *cfgte;
5817         int found, i;
5818         LIST_HEAD(old_res);
5819
5820         ENTER;
5821         if (ioa_cfg->cfg_table->hdr.flags & IPR_UCODE_DOWNLOAD_REQ)
5822                 dev_err(&ioa_cfg->pdev->dev, "Microcode download required\n");
5823
5824         list_for_each_entry_safe(res, temp, &ioa_cfg->used_res_q, queue)
5825                 list_move_tail(&res->queue, &old_res);
5826
5827         for (i = 0; i < ioa_cfg->cfg_table->hdr.num_entries; i++) {
5828                 cfgte = &ioa_cfg->cfg_table->dev[i];
5829                 found = 0;
5830
5831                 list_for_each_entry_safe(res, temp, &old_res, queue) {
5832                         if (!memcmp(&res->cfgte.res_addr,
5833                                     &cfgte->res_addr, sizeof(cfgte->res_addr))) {
5834                                 list_move_tail(&res->queue, &ioa_cfg->used_res_q);
5835                                 found = 1;
5836                                 break;
5837                         }
5838                 }
5839
5840                 if (!found) {
5841                         if (list_empty(&ioa_cfg->free_res_q)) {
5842                                 dev_err(&ioa_cfg->pdev->dev, "Too many devices attached\n");
5843                                 break;
5844                         }
5845
5846                         found = 1;
5847                         res = list_entry(ioa_cfg->free_res_q.next,
5848                                          struct ipr_resource_entry, queue);
5849                         list_move_tail(&res->queue, &ioa_cfg->used_res_q);
5850                         ipr_init_res_entry(res);
5851                         res->add_to_ml = 1;
5852                 }
5853
5854                 if (found)
5855                         memcpy(&res->cfgte, cfgte, sizeof(struct ipr_config_table_entry));
5856         }
5857
5858         list_for_each_entry_safe(res, temp, &old_res, queue) {
5859                 if (res->sdev) {
5860                         res->del_from_ml = 1;
5861                         res->cfgte.res_handle = IPR_INVALID_RES_HANDLE;
5862                         list_move_tail(&res->queue, &ioa_cfg->used_res_q);
5863                 } else {
5864                         list_move_tail(&res->queue, &ioa_cfg->free_res_q);
5865                 }
5866         }
5867
5868         ipr_cmd->job_step = ipr_ioafp_mode_sense_page28;
5869
5870         LEAVE;
5871         return IPR_RC_JOB_CONTINUE;
5872 }
5873
5874 /**
5875  * ipr_ioafp_query_ioa_cfg - Send a Query IOA Config to the adapter.
5876  * @ipr_cmd:    ipr command struct
5877  *
5878  * This function sends a Query IOA Configuration command
5879  * to the adapter to retrieve the IOA configuration table.
5880  *
5881  * Return value:
5882  *      IPR_RC_JOB_RETURN
5883  **/
5884 static int ipr_ioafp_query_ioa_cfg(struct ipr_cmnd *ipr_cmd)
5885 {
5886         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5887         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5888         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5889         struct ipr_inquiry_page3 *ucode_vpd = &ioa_cfg->vpd_cbs->page3_data;
5890
5891         ENTER;
5892         dev_info(&ioa_cfg->pdev->dev, "Adapter firmware version: %02X%02X%02X%02X\n",
5893                  ucode_vpd->major_release, ucode_vpd->card_type,
5894                  ucode_vpd->minor_release[0], ucode_vpd->minor_release[1]);
5895         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
5896         ioarcb->res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
5897
5898         ioarcb->cmd_pkt.cdb[0] = IPR_QUERY_IOA_CONFIG;
5899         ioarcb->cmd_pkt.cdb[7] = (sizeof(struct ipr_config_table) >> 8) & 0xff;
5900         ioarcb->cmd_pkt.cdb[8] = sizeof(struct ipr_config_table) & 0xff;
5901
5902         ioarcb->read_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
5903         ioarcb->read_data_transfer_length =
5904                 cpu_to_be32(sizeof(struct ipr_config_table));
5905
5906         ioadl->address = cpu_to_be32(ioa_cfg->cfg_table_dma);
5907         ioadl->flags_and_data_len =
5908                 cpu_to_be32(IPR_IOADL_FLAGS_READ_LAST | sizeof(struct ipr_config_table));
5909
5910         ipr_cmd->job_step = ipr_init_res_table;
5911
5912         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
5913
5914         LEAVE;
5915         return IPR_RC_JOB_RETURN;
5916 }
5917
5918 /**
5919  * ipr_ioafp_inquiry - Send an Inquiry to the adapter.
5920  * @ipr_cmd:    ipr command struct
5921  *
5922  * This utility function sends an inquiry to the adapter.
5923  *
5924  * Return value:
5925  *      none
5926  **/
5927 static void ipr_ioafp_inquiry(struct ipr_cmnd *ipr_cmd, u8 flags, u8 page,
5928                               u32 dma_addr, u8 xfer_len)
5929 {
5930         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
5931         struct ipr_ioadl_desc *ioadl = ipr_cmd->ioadl;
5932
5933         ENTER;
5934         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_SCSICDB;
5935         ioarcb->res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
5936
5937         ioarcb->cmd_pkt.cdb[0] = INQUIRY;
5938         ioarcb->cmd_pkt.cdb[1] = flags;
5939         ioarcb->cmd_pkt.cdb[2] = page;
5940         ioarcb->cmd_pkt.cdb[4] = xfer_len;
5941
5942         ioarcb->read_ioadl_len = cpu_to_be32(sizeof(struct ipr_ioadl_desc));
5943         ioarcb->read_data_transfer_length = cpu_to_be32(xfer_len);
5944
5945         ioadl->address = cpu_to_be32(dma_addr);
5946         ioadl->flags_and_data_len =
5947                 cpu_to_be32(IPR_IOADL_FLAGS_READ_LAST | xfer_len);
5948
5949         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
5950         LEAVE;
5951 }
5952
5953 /**
5954  * ipr_inquiry_page_supported - Is the given inquiry page supported
5955  * @page0:              inquiry page 0 buffer
5956  * @page:               page code.
5957  *
5958  * This function determines if the specified inquiry page is supported.
5959  *
5960  * Return value:
5961  *      1 if page is supported / 0 if not
5962  **/
5963 static int ipr_inquiry_page_supported(struct ipr_inquiry_page0 *page0, u8 page)
5964 {
5965         int i;
5966
5967         for (i = 0; i < min_t(u8, page0->len, IPR_INQUIRY_PAGE0_ENTRIES); i++)
5968                 if (page0->page[i] == page)
5969                         return 1;
5970
5971         return 0;
5972 }
5973
5974 /**
5975  * ipr_ioafp_page3_inquiry - Send a Page 3 Inquiry to the adapter.
5976  * @ipr_cmd:    ipr command struct
5977  *
5978  * This function sends a Page 3 inquiry to the adapter
5979  * to retrieve software VPD information.
5980  *
5981  * Return value:
5982  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
5983  **/
5984 static int ipr_ioafp_page3_inquiry(struct ipr_cmnd *ipr_cmd)
5985 {
5986         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
5987         struct ipr_inquiry_page0 *page0 = &ioa_cfg->vpd_cbs->page0_data;
5988
5989         ENTER;
5990
5991         if (!ipr_inquiry_page_supported(page0, 1))
5992                 ioa_cfg->cache_state = CACHE_NONE;
5993
5994         ipr_cmd->job_step = ipr_ioafp_query_ioa_cfg;
5995
5996         ipr_ioafp_inquiry(ipr_cmd, 1, 3,
5997                           ioa_cfg->vpd_cbs_dma + offsetof(struct ipr_misc_cbs, page3_data),
5998                           sizeof(struct ipr_inquiry_page3));
5999
6000         LEAVE;
6001         return IPR_RC_JOB_RETURN;
6002 }
6003
6004 /**
6005  * ipr_ioafp_page0_inquiry - Send a Page 0 Inquiry to the adapter.
6006  * @ipr_cmd:    ipr command struct
6007  *
6008  * This function sends a Page 0 inquiry to the adapter
6009  * to retrieve supported inquiry pages.
6010  *
6011  * Return value:
6012  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6013  **/
6014 static int ipr_ioafp_page0_inquiry(struct ipr_cmnd *ipr_cmd)
6015 {
6016         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6017         char type[5];
6018
6019         ENTER;
6020
6021         /* Grab the type out of the VPD and store it away */
6022         memcpy(type, ioa_cfg->vpd_cbs->ioa_vpd.std_inq_data.vpids.product_id, 4);
6023         type[4] = '\0';
6024         ioa_cfg->type = simple_strtoul((char *)type, NULL, 16);
6025
6026         ipr_cmd->job_step = ipr_ioafp_page3_inquiry;
6027
6028         ipr_ioafp_inquiry(ipr_cmd, 1, 0,
6029                           ioa_cfg->vpd_cbs_dma + offsetof(struct ipr_misc_cbs, page0_data),
6030                           sizeof(struct ipr_inquiry_page0));
6031
6032         LEAVE;
6033         return IPR_RC_JOB_RETURN;
6034 }
6035
6036 /**
6037  * ipr_ioafp_std_inquiry - Send a Standard Inquiry to the adapter.
6038  * @ipr_cmd:    ipr command struct
6039  *
6040  * This function sends a standard inquiry to the adapter.
6041  *
6042  * Return value:
6043  *      IPR_RC_JOB_RETURN
6044  **/
6045 static int ipr_ioafp_std_inquiry(struct ipr_cmnd *ipr_cmd)
6046 {
6047         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6048
6049         ENTER;
6050         ipr_cmd->job_step = ipr_ioafp_page0_inquiry;
6051
6052         ipr_ioafp_inquiry(ipr_cmd, 0, 0,
6053                           ioa_cfg->vpd_cbs_dma + offsetof(struct ipr_misc_cbs, ioa_vpd),
6054                           sizeof(struct ipr_ioa_vpd));
6055
6056         LEAVE;
6057         return IPR_RC_JOB_RETURN;
6058 }
6059
6060 /**
6061  * ipr_ioafp_indentify_hrrq - Send Identify Host RRQ.
6062  * @ipr_cmd:    ipr command struct
6063  *
6064  * This function send an Identify Host Request Response Queue
6065  * command to establish the HRRQ with the adapter.
6066  *
6067  * Return value:
6068  *      IPR_RC_JOB_RETURN
6069  **/
6070 static int ipr_ioafp_indentify_hrrq(struct ipr_cmnd *ipr_cmd)
6071 {
6072         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6073         struct ipr_ioarcb *ioarcb = &ipr_cmd->ioarcb;
6074
6075         ENTER;
6076         dev_info(&ioa_cfg->pdev->dev, "Starting IOA initialization sequence.\n");
6077
6078         ioarcb->cmd_pkt.cdb[0] = IPR_ID_HOST_RR_Q;
6079         ioarcb->res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
6080
6081         ioarcb->cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
6082         ioarcb->cmd_pkt.cdb[2] =
6083                 ((u32) ioa_cfg->host_rrq_dma >> 24) & 0xff;
6084         ioarcb->cmd_pkt.cdb[3] =
6085                 ((u32) ioa_cfg->host_rrq_dma >> 16) & 0xff;
6086         ioarcb->cmd_pkt.cdb[4] =
6087                 ((u32) ioa_cfg->host_rrq_dma >> 8) & 0xff;
6088         ioarcb->cmd_pkt.cdb[5] =
6089                 ((u32) ioa_cfg->host_rrq_dma) & 0xff;
6090         ioarcb->cmd_pkt.cdb[7] =
6091                 ((sizeof(u32) * IPR_NUM_CMD_BLKS) >> 8) & 0xff;
6092         ioarcb->cmd_pkt.cdb[8] =
6093                 (sizeof(u32) * IPR_NUM_CMD_BLKS) & 0xff;
6094
6095         ipr_cmd->job_step = ipr_ioafp_std_inquiry;
6096
6097         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, IPR_INTERNAL_TIMEOUT);
6098
6099         LEAVE;
6100         return IPR_RC_JOB_RETURN;
6101 }
6102
6103 /**
6104  * ipr_reset_timer_done - Adapter reset timer function
6105  * @ipr_cmd:    ipr command struct
6106  *
6107  * Description: This function is used in adapter reset processing
6108  * for timing events. If the reset_cmd pointer in the IOA
6109  * config struct is not this adapter's we are doing nested
6110  * resets and fail_all_ops will take care of freeing the
6111  * command block.
6112  *
6113  * Return value:
6114  *      none
6115  **/
6116 static void ipr_reset_timer_done(struct ipr_cmnd *ipr_cmd)
6117 {
6118         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6119         unsigned long lock_flags = 0;
6120
6121         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
6122
6123         if (ioa_cfg->reset_cmd == ipr_cmd) {
6124                 list_del(&ipr_cmd->queue);
6125                 ipr_cmd->done(ipr_cmd);
6126         }
6127
6128         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
6129 }
6130
6131 /**
6132  * ipr_reset_start_timer - Start a timer for adapter reset job
6133  * @ipr_cmd:    ipr command struct
6134  * @timeout:    timeout value
6135  *
6136  * Description: This function is used in adapter reset processing
6137  * for timing events. If the reset_cmd pointer in the IOA
6138  * config struct is not this adapter's we are doing nested
6139  * resets and fail_all_ops will take care of freeing the
6140  * command block.
6141  *
6142  * Return value:
6143  *      none
6144  **/
6145 static void ipr_reset_start_timer(struct ipr_cmnd *ipr_cmd,
6146                                   unsigned long timeout)
6147 {
6148         list_add_tail(&ipr_cmd->queue, &ipr_cmd->ioa_cfg->pending_q);
6149         ipr_cmd->done = ipr_reset_ioa_job;
6150
6151         ipr_cmd->timer.data = (unsigned long) ipr_cmd;
6152         ipr_cmd->timer.expires = jiffies + timeout;
6153         ipr_cmd->timer.function = (void (*)(unsigned long))ipr_reset_timer_done;
6154         add_timer(&ipr_cmd->timer);
6155 }
6156
6157 /**
6158  * ipr_init_ioa_mem - Initialize ioa_cfg control block
6159  * @ioa_cfg:    ioa cfg struct
6160  *
6161  * Return value:
6162  *      nothing
6163  **/
6164 static void ipr_init_ioa_mem(struct ipr_ioa_cfg *ioa_cfg)
6165 {
6166         memset(ioa_cfg->host_rrq, 0, sizeof(u32) * IPR_NUM_CMD_BLKS);
6167
6168         /* Initialize Host RRQ pointers */
6169         ioa_cfg->hrrq_start = ioa_cfg->host_rrq;
6170         ioa_cfg->hrrq_end = &ioa_cfg->host_rrq[IPR_NUM_CMD_BLKS - 1];
6171         ioa_cfg->hrrq_curr = ioa_cfg->hrrq_start;
6172         ioa_cfg->toggle_bit = 1;
6173
6174         /* Zero out config table */
6175         memset(ioa_cfg->cfg_table, 0, sizeof(struct ipr_config_table));
6176 }
6177
6178 /**
6179  * ipr_reset_enable_ioa - Enable the IOA following a reset.
6180  * @ipr_cmd:    ipr command struct
6181  *
6182  * This function reinitializes some control blocks and
6183  * enables destructive diagnostics on the adapter.
6184  *
6185  * Return value:
6186  *      IPR_RC_JOB_RETURN
6187  **/
6188 static int ipr_reset_enable_ioa(struct ipr_cmnd *ipr_cmd)
6189 {
6190         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6191         volatile u32 int_reg;
6192
6193         ENTER;
6194         ipr_cmd->job_step = ipr_ioafp_indentify_hrrq;
6195         ipr_init_ioa_mem(ioa_cfg);
6196
6197         ioa_cfg->allow_interrupts = 1;
6198         int_reg = readl(ioa_cfg->regs.sense_interrupt_reg);
6199
6200         if (int_reg & IPR_PCII_IOA_TRANS_TO_OPER) {
6201                 writel((IPR_PCII_ERROR_INTERRUPTS | IPR_PCII_HRRQ_UPDATED),
6202                        ioa_cfg->regs.clr_interrupt_mask_reg);
6203                 int_reg = readl(ioa_cfg->regs.sense_interrupt_mask_reg);
6204                 return IPR_RC_JOB_CONTINUE;
6205         }
6206
6207         /* Enable destructive diagnostics on IOA */
6208         writel(ioa_cfg->doorbell, ioa_cfg->regs.set_uproc_interrupt_reg);
6209
6210         writel(IPR_PCII_OPER_INTERRUPTS, ioa_cfg->regs.clr_interrupt_mask_reg);
6211         int_reg = readl(ioa_cfg->regs.sense_interrupt_mask_reg);
6212
6213         dev_info(&ioa_cfg->pdev->dev, "Initializing IOA.\n");
6214
6215         ipr_cmd->timer.data = (unsigned long) ipr_cmd;
6216         ipr_cmd->timer.expires = jiffies + (ioa_cfg->transop_timeout * HZ);
6217         ipr_cmd->timer.function = (void (*)(unsigned long))ipr_oper_timeout;
6218         ipr_cmd->done = ipr_reset_ioa_job;
6219         add_timer(&ipr_cmd->timer);
6220         list_add_tail(&ipr_cmd->queue, &ioa_cfg->pending_q);
6221
6222         LEAVE;
6223         return IPR_RC_JOB_RETURN;
6224 }
6225
6226 /**
6227  * ipr_reset_wait_for_dump - Wait for a dump to timeout.
6228  * @ipr_cmd:    ipr command struct
6229  *
6230  * This function is invoked when an adapter dump has run out
6231  * of processing time.
6232  *
6233  * Return value:
6234  *      IPR_RC_JOB_CONTINUE
6235  **/
6236 static int ipr_reset_wait_for_dump(struct ipr_cmnd *ipr_cmd)
6237 {
6238         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6239
6240         if (ioa_cfg->sdt_state == GET_DUMP)
6241                 ioa_cfg->sdt_state = ABORT_DUMP;
6242
6243         ipr_cmd->job_step = ipr_reset_alert;
6244
6245         return IPR_RC_JOB_CONTINUE;
6246 }
6247
6248 /**
6249  * ipr_unit_check_no_data - Log a unit check/no data error log
6250  * @ioa_cfg:            ioa config struct
6251  *
6252  * Logs an error indicating the adapter unit checked, but for some
6253  * reason, we were unable to fetch the unit check buffer.
6254  *
6255  * Return value:
6256  *      nothing
6257  **/
6258 static void ipr_unit_check_no_data(struct ipr_ioa_cfg *ioa_cfg)
6259 {
6260         ioa_cfg->errors_logged++;
6261         dev_err(&ioa_cfg->pdev->dev, "IOA unit check with no data\n");
6262 }
6263
6264 /**
6265  * ipr_get_unit_check_buffer - Get the unit check buffer from the IOA
6266  * @ioa_cfg:            ioa config struct
6267  *
6268  * Fetches the unit check buffer from the adapter by clocking the data
6269  * through the mailbox register.
6270  *
6271  * Return value:
6272  *      nothing
6273  **/
6274 static void ipr_get_unit_check_buffer(struct ipr_ioa_cfg *ioa_cfg)
6275 {
6276         unsigned long mailbox;
6277         struct ipr_hostrcb *hostrcb;
6278         struct ipr_uc_sdt sdt;
6279         int rc, length;
6280
6281         mailbox = readl(ioa_cfg->ioa_mailbox);
6282
6283         if (!ipr_sdt_is_fmt2(mailbox)) {
6284                 ipr_unit_check_no_data(ioa_cfg);
6285                 return;
6286         }
6287
6288         memset(&sdt, 0, sizeof(struct ipr_uc_sdt));
6289         rc = ipr_get_ldump_data_section(ioa_cfg, mailbox, (__be32 *) &sdt,
6290                                         (sizeof(struct ipr_uc_sdt)) / sizeof(__be32));
6291
6292         if (rc || (be32_to_cpu(sdt.hdr.state) != IPR_FMT2_SDT_READY_TO_USE) ||
6293             !(sdt.entry[0].flags & IPR_SDT_VALID_ENTRY)) {
6294                 ipr_unit_check_no_data(ioa_cfg);
6295                 return;
6296         }
6297
6298         /* Find length of the first sdt entry (UC buffer) */
6299         length = (be32_to_cpu(sdt.entry[0].end_offset) -
6300                   be32_to_cpu(sdt.entry[0].bar_str_offset)) & IPR_FMT2_MBX_ADDR_MASK;
6301
6302         hostrcb = list_entry(ioa_cfg->hostrcb_free_q.next,
6303                              struct ipr_hostrcb, queue);
6304         list_del(&hostrcb->queue);
6305         memset(&hostrcb->hcam, 0, sizeof(hostrcb->hcam));
6306
6307         rc = ipr_get_ldump_data_section(ioa_cfg,
6308                                         be32_to_cpu(sdt.entry[0].bar_str_offset),
6309                                         (__be32 *)&hostrcb->hcam,
6310                                         min(length, (int)sizeof(hostrcb->hcam)) / sizeof(__be32));
6311
6312         if (!rc)
6313                 ipr_handle_log_data(ioa_cfg, hostrcb);
6314         else
6315                 ipr_unit_check_no_data(ioa_cfg);
6316
6317         list_add_tail(&hostrcb->queue, &ioa_cfg->hostrcb_free_q);
6318 }
6319
6320 /**
6321  * ipr_reset_restore_cfg_space - Restore PCI config space.
6322  * @ipr_cmd:    ipr command struct
6323  *
6324  * Description: This function restores the saved PCI config space of
6325  * the adapter, fails all outstanding ops back to the callers, and
6326  * fetches the dump/unit check if applicable to this reset.
6327  *
6328  * Return value:
6329  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6330  **/
6331 static int ipr_reset_restore_cfg_space(struct ipr_cmnd *ipr_cmd)
6332 {
6333         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6334         int rc;
6335
6336         ENTER;
6337         rc = pci_restore_state(ioa_cfg->pdev);
6338
6339         if (rc != PCIBIOS_SUCCESSFUL) {
6340                 ipr_cmd->ioasa.ioasc = cpu_to_be32(IPR_IOASC_PCI_ACCESS_ERROR);
6341                 return IPR_RC_JOB_CONTINUE;
6342         }
6343
6344         if (ipr_set_pcix_cmd_reg(ioa_cfg)) {
6345                 ipr_cmd->ioasa.ioasc = cpu_to_be32(IPR_IOASC_PCI_ACCESS_ERROR);
6346                 return IPR_RC_JOB_CONTINUE;
6347         }
6348
6349         ipr_fail_all_ops(ioa_cfg);
6350
6351         if (ioa_cfg->ioa_unit_checked) {
6352                 ioa_cfg->ioa_unit_checked = 0;
6353                 ipr_get_unit_check_buffer(ioa_cfg);
6354                 ipr_cmd->job_step = ipr_reset_alert;
6355                 ipr_reset_start_timer(ipr_cmd, 0);
6356                 return IPR_RC_JOB_RETURN;
6357         }
6358
6359         if (ioa_cfg->in_ioa_bringdown) {
6360                 ipr_cmd->job_step = ipr_ioa_bringdown_done;
6361         } else {
6362                 ipr_cmd->job_step = ipr_reset_enable_ioa;
6363
6364                 if (GET_DUMP == ioa_cfg->sdt_state) {
6365                         ipr_reset_start_timer(ipr_cmd, IPR_DUMP_TIMEOUT);
6366                         ipr_cmd->job_step = ipr_reset_wait_for_dump;
6367                         schedule_work(&ioa_cfg->work_q);
6368                         return IPR_RC_JOB_RETURN;
6369                 }
6370         }
6371
6372         ENTER;
6373         return IPR_RC_JOB_CONTINUE;
6374 }
6375
6376 /**
6377  * ipr_reset_bist_done - BIST has completed on the adapter.
6378  * @ipr_cmd:    ipr command struct
6379  *
6380  * Description: Unblock config space and resume the reset process.
6381  *
6382  * Return value:
6383  *      IPR_RC_JOB_CONTINUE
6384  **/
6385 static int ipr_reset_bist_done(struct ipr_cmnd *ipr_cmd)
6386 {
6387         ENTER;
6388         pci_unblock_user_cfg_access(ipr_cmd->ioa_cfg->pdev);
6389         ipr_cmd->job_step = ipr_reset_restore_cfg_space;
6390         LEAVE;
6391         return IPR_RC_JOB_CONTINUE;
6392 }
6393
6394 /**
6395  * ipr_reset_start_bist - Run BIST on the adapter.
6396  * @ipr_cmd:    ipr command struct
6397  *
6398  * Description: This function runs BIST on the adapter, then delays 2 seconds.
6399  *
6400  * Return value:
6401  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6402  **/
6403 static int ipr_reset_start_bist(struct ipr_cmnd *ipr_cmd)
6404 {
6405         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6406         int rc;
6407
6408         ENTER;
6409         pci_block_user_cfg_access(ioa_cfg->pdev);
6410         rc = pci_write_config_byte(ioa_cfg->pdev, PCI_BIST, PCI_BIST_START);
6411
6412         if (rc != PCIBIOS_SUCCESSFUL) {
6413                 pci_unblock_user_cfg_access(ipr_cmd->ioa_cfg->pdev);
6414                 ipr_cmd->ioasa.ioasc = cpu_to_be32(IPR_IOASC_PCI_ACCESS_ERROR);
6415                 rc = IPR_RC_JOB_CONTINUE;
6416         } else {
6417                 ipr_cmd->job_step = ipr_reset_bist_done;
6418                 ipr_reset_start_timer(ipr_cmd, IPR_WAIT_FOR_BIST_TIMEOUT);
6419                 rc = IPR_RC_JOB_RETURN;
6420         }
6421
6422         LEAVE;
6423         return rc;
6424 }
6425
6426 /**
6427  * ipr_reset_allowed - Query whether or not IOA can be reset
6428  * @ioa_cfg:    ioa config struct
6429  *
6430  * Return value:
6431  *      0 if reset not allowed / non-zero if reset is allowed
6432  **/
6433 static int ipr_reset_allowed(struct ipr_ioa_cfg *ioa_cfg)
6434 {
6435         volatile u32 temp_reg;
6436
6437         temp_reg = readl(ioa_cfg->regs.sense_interrupt_reg);
6438         return ((temp_reg & IPR_PCII_CRITICAL_OPERATION) == 0);
6439 }
6440
6441 /**
6442  * ipr_reset_wait_to_start_bist - Wait for permission to reset IOA.
6443  * @ipr_cmd:    ipr command struct
6444  *
6445  * Description: This function waits for adapter permission to run BIST,
6446  * then runs BIST. If the adapter does not give permission after a
6447  * reasonable time, we will reset the adapter anyway. The impact of
6448  * resetting the adapter without warning the adapter is the risk of
6449  * losing the persistent error log on the adapter. If the adapter is
6450  * reset while it is writing to the flash on the adapter, the flash
6451  * segment will have bad ECC and be zeroed.
6452  *
6453  * Return value:
6454  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6455  **/
6456 static int ipr_reset_wait_to_start_bist(struct ipr_cmnd *ipr_cmd)
6457 {
6458         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6459         int rc = IPR_RC_JOB_RETURN;
6460
6461         if (!ipr_reset_allowed(ioa_cfg) && ipr_cmd->u.time_left) {
6462                 ipr_cmd->u.time_left -= IPR_CHECK_FOR_RESET_TIMEOUT;
6463                 ipr_reset_start_timer(ipr_cmd, IPR_CHECK_FOR_RESET_TIMEOUT);
6464         } else {
6465                 ipr_cmd->job_step = ipr_reset_start_bist;
6466                 rc = IPR_RC_JOB_CONTINUE;
6467         }
6468
6469         return rc;
6470 }
6471
6472 /**
6473  * ipr_reset_alert_part2 - Alert the adapter of a pending reset
6474  * @ipr_cmd:    ipr command struct
6475  *
6476  * Description: This function alerts the adapter that it will be reset.
6477  * If memory space is not currently enabled, proceed directly
6478  * to running BIST on the adapter. The timer must always be started
6479  * so we guarantee we do not run BIST from ipr_isr.
6480  *
6481  * Return value:
6482  *      IPR_RC_JOB_RETURN
6483  **/
6484 static int ipr_reset_alert(struct ipr_cmnd *ipr_cmd)
6485 {
6486         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6487         u16 cmd_reg;
6488         int rc;
6489
6490         ENTER;
6491         rc = pci_read_config_word(ioa_cfg->pdev, PCI_COMMAND, &cmd_reg);
6492
6493         if ((rc == PCIBIOS_SUCCESSFUL) && (cmd_reg & PCI_COMMAND_MEMORY)) {
6494                 ipr_mask_and_clear_interrupts(ioa_cfg, ~0);
6495                 writel(IPR_UPROCI_RESET_ALERT, ioa_cfg->regs.set_uproc_interrupt_reg);
6496                 ipr_cmd->job_step = ipr_reset_wait_to_start_bist;
6497         } else {
6498                 ipr_cmd->job_step = ipr_reset_start_bist;
6499         }
6500
6501         ipr_cmd->u.time_left = IPR_WAIT_FOR_RESET_TIMEOUT;
6502         ipr_reset_start_timer(ipr_cmd, IPR_CHECK_FOR_RESET_TIMEOUT);
6503
6504         LEAVE;
6505         return IPR_RC_JOB_RETURN;
6506 }
6507
6508 /**
6509  * ipr_reset_ucode_download_done - Microcode download completion
6510  * @ipr_cmd:    ipr command struct
6511  *
6512  * Description: This function unmaps the microcode download buffer.
6513  *
6514  * Return value:
6515  *      IPR_RC_JOB_CONTINUE
6516  **/
6517 static int ipr_reset_ucode_download_done(struct ipr_cmnd *ipr_cmd)
6518 {
6519         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6520         struct ipr_sglist *sglist = ioa_cfg->ucode_sglist;
6521
6522         pci_unmap_sg(ioa_cfg->pdev, sglist->scatterlist,
6523                      sglist->num_sg, DMA_TO_DEVICE);
6524
6525         ipr_cmd->job_step = ipr_reset_alert;
6526         return IPR_RC_JOB_CONTINUE;
6527 }
6528
6529 /**
6530  * ipr_reset_ucode_download - Download microcode to the adapter
6531  * @ipr_cmd:    ipr command struct
6532  *
6533  * Description: This function checks to see if it there is microcode
6534  * to download to the adapter. If there is, a download is performed.
6535  *
6536  * Return value:
6537  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6538  **/
6539 static int ipr_reset_ucode_download(struct ipr_cmnd *ipr_cmd)
6540 {
6541         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6542         struct ipr_sglist *sglist = ioa_cfg->ucode_sglist;
6543
6544         ENTER;
6545         ipr_cmd->job_step = ipr_reset_alert;
6546
6547         if (!sglist)
6548                 return IPR_RC_JOB_CONTINUE;
6549
6550         ipr_cmd->ioarcb.res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
6551         ipr_cmd->ioarcb.cmd_pkt.request_type = IPR_RQTYPE_SCSICDB;
6552         ipr_cmd->ioarcb.cmd_pkt.cdb[0] = WRITE_BUFFER;
6553         ipr_cmd->ioarcb.cmd_pkt.cdb[1] = IPR_WR_BUF_DOWNLOAD_AND_SAVE;
6554         ipr_cmd->ioarcb.cmd_pkt.cdb[6] = (sglist->buffer_len & 0xff0000) >> 16;
6555         ipr_cmd->ioarcb.cmd_pkt.cdb[7] = (sglist->buffer_len & 0x00ff00) >> 8;
6556         ipr_cmd->ioarcb.cmd_pkt.cdb[8] = sglist->buffer_len & 0x0000ff;
6557
6558         ipr_build_ucode_ioadl(ipr_cmd, sglist);
6559         ipr_cmd->job_step = ipr_reset_ucode_download_done;
6560
6561         ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout,
6562                    IPR_WRITE_BUFFER_TIMEOUT);
6563
6564         LEAVE;
6565         return IPR_RC_JOB_RETURN;
6566 }
6567
6568 /**
6569  * ipr_reset_shutdown_ioa - Shutdown the adapter
6570  * @ipr_cmd:    ipr command struct
6571  *
6572  * Description: This function issues an adapter shutdown of the
6573  * specified type to the specified adapter as part of the
6574  * adapter reset job.
6575  *
6576  * Return value:
6577  *      IPR_RC_JOB_CONTINUE / IPR_RC_JOB_RETURN
6578  **/
6579 static int ipr_reset_shutdown_ioa(struct ipr_cmnd *ipr_cmd)
6580 {
6581         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6582         enum ipr_shutdown_type shutdown_type = ipr_cmd->u.shutdown_type;
6583         unsigned long timeout;
6584         int rc = IPR_RC_JOB_CONTINUE;
6585
6586         ENTER;
6587         if (shutdown_type != IPR_SHUTDOWN_NONE && !ioa_cfg->ioa_is_dead) {
6588                 ipr_cmd->ioarcb.res_handle = cpu_to_be32(IPR_IOA_RES_HANDLE);
6589                 ipr_cmd->ioarcb.cmd_pkt.request_type = IPR_RQTYPE_IOACMD;
6590                 ipr_cmd->ioarcb.cmd_pkt.cdb[0] = IPR_IOA_SHUTDOWN;
6591                 ipr_cmd->ioarcb.cmd_pkt.cdb[1] = shutdown_type;
6592
6593                 if (shutdown_type == IPR_SHUTDOWN_ABBREV)
6594                         timeout = IPR_ABBREV_SHUTDOWN_TIMEOUT;
6595                 else if (shutdown_type == IPR_SHUTDOWN_PREPARE_FOR_NORMAL)
6596                         timeout = IPR_INTERNAL_TIMEOUT;
6597                 else
6598                         timeout = IPR_SHUTDOWN_TIMEOUT;
6599
6600                 ipr_do_req(ipr_cmd, ipr_reset_ioa_job, ipr_timeout, timeout);
6601
6602                 rc = IPR_RC_JOB_RETURN;
6603                 ipr_cmd->job_step = ipr_reset_ucode_download;
6604         } else
6605                 ipr_cmd->job_step = ipr_reset_alert;
6606
6607         LEAVE;
6608         return rc;
6609 }
6610
6611 /**
6612  * ipr_reset_ioa_job - Adapter reset job
6613  * @ipr_cmd:    ipr command struct
6614  *
6615  * Description: This function is the job router for the adapter reset job.
6616  *
6617  * Return value:
6618  *      none
6619  **/
6620 static void ipr_reset_ioa_job(struct ipr_cmnd *ipr_cmd)
6621 {
6622         u32 rc, ioasc;
6623         struct ipr_ioa_cfg *ioa_cfg = ipr_cmd->ioa_cfg;
6624
6625         do {
6626                 ioasc = be32_to_cpu(ipr_cmd->ioasa.ioasc);
6627
6628                 if (ioa_cfg->reset_cmd != ipr_cmd) {
6629                         /*
6630                          * We are doing nested adapter resets and this is
6631                          * not the current reset job.
6632                          */
6633                         list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
6634                         return;
6635                 }
6636
6637                 if (IPR_IOASC_SENSE_KEY(ioasc)) {
6638                         rc = ipr_cmd->job_step_failed(ipr_cmd);
6639                         if (rc == IPR_RC_JOB_RETURN)
6640                                 return;
6641                 }
6642
6643                 ipr_reinit_ipr_cmnd(ipr_cmd);
6644                 ipr_cmd->job_step_failed = ipr_reset_cmd_failed;
6645                 rc = ipr_cmd->job_step(ipr_cmd);
6646         } while(rc == IPR_RC_JOB_CONTINUE);
6647 }
6648
6649 /**
6650  * _ipr_initiate_ioa_reset - Initiate an adapter reset
6651  * @ioa_cfg:            ioa config struct
6652  * @job_step:           first job step of reset job
6653  * @shutdown_type:      shutdown type
6654  *
6655  * Description: This function will initiate the reset of the given adapter
6656  * starting at the selected job step.
6657  * If the caller needs to wait on the completion of the reset,
6658  * the caller must sleep on the reset_wait_q.
6659  *
6660  * Return value:
6661  *      none
6662  **/
6663 static void _ipr_initiate_ioa_reset(struct ipr_ioa_cfg *ioa_cfg,
6664                                     int (*job_step) (struct ipr_cmnd *),
6665                                     enum ipr_shutdown_type shutdown_type)
6666 {
6667         struct ipr_cmnd *ipr_cmd;
6668
6669         ioa_cfg->in_reset_reload = 1;
6670         ioa_cfg->allow_cmds = 0;
6671         scsi_block_requests(ioa_cfg->host);
6672
6673         ipr_cmd = ipr_get_free_ipr_cmnd(ioa_cfg);
6674         ioa_cfg->reset_cmd = ipr_cmd;
6675         ipr_cmd->job_step = job_step;
6676         ipr_cmd->u.shutdown_type = shutdown_type;
6677
6678         ipr_reset_ioa_job(ipr_cmd);
6679 }
6680
6681 /**
6682  * ipr_initiate_ioa_reset - Initiate an adapter reset
6683  * @ioa_cfg:            ioa config struct
6684  * @shutdown_type:      shutdown type
6685  *
6686  * Description: This function will initiate the reset of the given adapter.
6687  * If the caller needs to wait on the completion of the reset,
6688  * the caller must sleep on the reset_wait_q.
6689  *
6690  * Return value:
6691  *      none
6692  **/
6693 static void ipr_initiate_ioa_reset(struct ipr_ioa_cfg *ioa_cfg,
6694                                    enum ipr_shutdown_type shutdown_type)
6695 {
6696         if (ioa_cfg->ioa_is_dead)
6697                 return;
6698
6699         if (ioa_cfg->in_reset_reload && ioa_cfg->sdt_state == GET_DUMP)
6700                 ioa_cfg->sdt_state = ABORT_DUMP;
6701
6702         if (ioa_cfg->reset_retries++ >= IPR_NUM_RESET_RELOAD_RETRIES) {
6703                 dev_err(&ioa_cfg->pdev->dev,
6704                         "IOA taken offline - error recovery failed\n");
6705
6706                 ioa_cfg->reset_retries = 0;
6707                 ioa_cfg->ioa_is_dead = 1;
6708
6709                 if (ioa_cfg->in_ioa_bringdown) {
6710                         ioa_cfg->reset_cmd = NULL;
6711                         ioa_cfg->in_reset_reload = 0;
6712                         ipr_fail_all_ops(ioa_cfg);
6713                         wake_up_all(&ioa_cfg->reset_wait_q);
6714
6715                         spin_unlock_irq(ioa_cfg->host->host_lock);
6716                         scsi_unblock_requests(ioa_cfg->host);
6717                         spin_lock_irq(ioa_cfg->host->host_lock);
6718                         return;
6719                 } else {
6720                         ioa_cfg->in_ioa_bringdown = 1;
6721                         shutdown_type = IPR_SHUTDOWN_NONE;
6722                 }
6723         }
6724
6725         _ipr_initiate_ioa_reset(ioa_cfg, ipr_reset_shutdown_ioa,
6726                                 shutdown_type);
6727 }
6728
6729 /**
6730  * ipr_reset_freeze - Hold off all I/O activity
6731  * @ipr_cmd:    ipr command struct
6732  *
6733  * Description: If the PCI slot is frozen, hold off all I/O
6734  * activity; then, as soon as the slot is available again,
6735  * initiate an adapter reset.
6736  */
6737 static int ipr_reset_freeze(struct ipr_cmnd *ipr_cmd)
6738 {
6739         /* Disallow new interrupts, avoid loop */
6740         ipr_cmd->ioa_cfg->allow_interrupts = 0;
6741         list_add_tail(&ipr_cmd->queue, &ipr_cmd->ioa_cfg->pending_q);
6742         ipr_cmd->done = ipr_reset_ioa_job;
6743         return IPR_RC_JOB_RETURN;
6744 }
6745
6746 /**
6747  * ipr_pci_frozen - Called when slot has experienced a PCI bus error.
6748  * @pdev:       PCI device struct
6749  *
6750  * Description: This routine is called to tell us that the PCI bus
6751  * is down. Can't do anything here, except put the device driver
6752  * into a holding pattern, waiting for the PCI bus to come back.
6753  */
6754 static void ipr_pci_frozen(struct pci_dev *pdev)
6755 {
6756         unsigned long flags = 0;
6757         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
6758
6759         spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
6760         _ipr_initiate_ioa_reset(ioa_cfg, ipr_reset_freeze, IPR_SHUTDOWN_NONE);
6761         spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
6762 }
6763
6764 /**
6765  * ipr_pci_slot_reset - Called when PCI slot has been reset.
6766  * @pdev:       PCI device struct
6767  *
6768  * Description: This routine is called by the pci error recovery
6769  * code after the PCI slot has been reset, just before we
6770  * should resume normal operations.
6771  */
6772 static pci_ers_result_t ipr_pci_slot_reset(struct pci_dev *pdev)
6773 {
6774         unsigned long flags = 0;
6775         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
6776
6777         spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
6778         _ipr_initiate_ioa_reset(ioa_cfg, ipr_reset_restore_cfg_space,
6779                                          IPR_SHUTDOWN_NONE);
6780         spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
6781         return PCI_ERS_RESULT_RECOVERED;
6782 }
6783
6784 /**
6785  * ipr_pci_perm_failure - Called when PCI slot is dead for good.
6786  * @pdev:       PCI device struct
6787  *
6788  * Description: This routine is called when the PCI bus has
6789  * permanently failed.
6790  */
6791 static void ipr_pci_perm_failure(struct pci_dev *pdev)
6792 {
6793         unsigned long flags = 0;
6794         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
6795
6796         spin_lock_irqsave(ioa_cfg->host->host_lock, flags);
6797         if (ioa_cfg->sdt_state == WAIT_FOR_DUMP)
6798                 ioa_cfg->sdt_state = ABORT_DUMP;
6799         ioa_cfg->reset_retries = IPR_NUM_RESET_RELOAD_RETRIES;
6800         ioa_cfg->in_ioa_bringdown = 1;
6801         ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
6802         spin_unlock_irqrestore(ioa_cfg->host->host_lock, flags);
6803 }
6804
6805 /**
6806  * ipr_pci_error_detected - Called when a PCI error is detected.
6807  * @pdev:       PCI device struct
6808  * @state:      PCI channel state
6809  *
6810  * Description: Called when a PCI error is detected.
6811  *
6812  * Return value:
6813  *      PCI_ERS_RESULT_NEED_RESET or PCI_ERS_RESULT_DISCONNECT
6814  */
6815 static pci_ers_result_t ipr_pci_error_detected(struct pci_dev *pdev,
6816                                                pci_channel_state_t state)
6817 {
6818         switch (state) {
6819         case pci_channel_io_frozen:
6820                 ipr_pci_frozen(pdev);
6821                 return PCI_ERS_RESULT_NEED_RESET;
6822         case pci_channel_io_perm_failure:
6823                 ipr_pci_perm_failure(pdev);
6824                 return PCI_ERS_RESULT_DISCONNECT;
6825                 break;
6826         default:
6827                 break;
6828         }
6829         return PCI_ERS_RESULT_NEED_RESET;
6830 }
6831
6832 /**
6833  * ipr_probe_ioa_part2 - Initializes IOAs found in ipr_probe_ioa(..)
6834  * @ioa_cfg:    ioa cfg struct
6835  *
6836  * Description: This is the second phase of adapter intialization
6837  * This function takes care of initilizing the adapter to the point
6838  * where it can accept new commands.
6839
6840  * Return value:
6841  *      0 on sucess / -EIO on failure
6842  **/
6843 static int __devinit ipr_probe_ioa_part2(struct ipr_ioa_cfg *ioa_cfg)
6844 {
6845         int rc = 0;
6846         unsigned long host_lock_flags = 0;
6847
6848         ENTER;
6849         spin_lock_irqsave(ioa_cfg->host->host_lock, host_lock_flags);
6850         dev_dbg(&ioa_cfg->pdev->dev, "ioa_cfg adx: 0x%p\n", ioa_cfg);
6851         if (ioa_cfg->needs_hard_reset) {
6852                 ioa_cfg->needs_hard_reset = 0;
6853                 ipr_initiate_ioa_reset(ioa_cfg, IPR_SHUTDOWN_NONE);
6854         } else
6855                 _ipr_initiate_ioa_reset(ioa_cfg, ipr_reset_enable_ioa,
6856                                         IPR_SHUTDOWN_NONE);
6857
6858         spin_unlock_irqrestore(ioa_cfg->host->host_lock, host_lock_flags);
6859         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
6860         spin_lock_irqsave(ioa_cfg->host->host_lock, host_lock_flags);
6861
6862         if (ioa_cfg->ioa_is_dead) {
6863                 rc = -EIO;
6864         } else if (ipr_invalid_adapter(ioa_cfg)) {
6865                 if (!ipr_testmode)
6866                         rc = -EIO;
6867
6868                 dev_err(&ioa_cfg->pdev->dev,
6869                         "Adapter not supported in this hardware configuration.\n");
6870         }
6871
6872         spin_unlock_irqrestore(ioa_cfg->host->host_lock, host_lock_flags);
6873
6874         LEAVE;
6875         return rc;
6876 }
6877
6878 /**
6879  * ipr_free_cmd_blks - Frees command blocks allocated for an adapter
6880  * @ioa_cfg:    ioa config struct
6881  *
6882  * Return value:
6883  *      none
6884  **/
6885 static void ipr_free_cmd_blks(struct ipr_ioa_cfg *ioa_cfg)
6886 {
6887         int i;
6888
6889         for (i = 0; i < IPR_NUM_CMD_BLKS; i++) {
6890                 if (ioa_cfg->ipr_cmnd_list[i])
6891                         pci_pool_free(ioa_cfg->ipr_cmd_pool,
6892                                       ioa_cfg->ipr_cmnd_list[i],
6893                                       ioa_cfg->ipr_cmnd_list_dma[i]);
6894
6895                 ioa_cfg->ipr_cmnd_list[i] = NULL;
6896         }
6897
6898         if (ioa_cfg->ipr_cmd_pool)
6899                 pci_pool_destroy (ioa_cfg->ipr_cmd_pool);
6900
6901         ioa_cfg->ipr_cmd_pool = NULL;
6902 }
6903
6904 /**
6905  * ipr_free_mem - Frees memory allocated for an adapter
6906  * @ioa_cfg:    ioa cfg struct
6907  *
6908  * Return value:
6909  *      nothing
6910  **/
6911 static void ipr_free_mem(struct ipr_ioa_cfg *ioa_cfg)
6912 {
6913         int i;
6914
6915         kfree(ioa_cfg->res_entries);
6916         pci_free_consistent(ioa_cfg->pdev, sizeof(struct ipr_misc_cbs),
6917                             ioa_cfg->vpd_cbs, ioa_cfg->vpd_cbs_dma);
6918         ipr_free_cmd_blks(ioa_cfg);
6919         pci_free_consistent(ioa_cfg->pdev, sizeof(u32) * IPR_NUM_CMD_BLKS,
6920                             ioa_cfg->host_rrq, ioa_cfg->host_rrq_dma);
6921         pci_free_consistent(ioa_cfg->pdev, sizeof(struct ipr_config_table),
6922                             ioa_cfg->cfg_table,
6923                             ioa_cfg->cfg_table_dma);
6924
6925         for (i = 0; i < IPR_NUM_HCAMS; i++) {
6926                 pci_free_consistent(ioa_cfg->pdev,
6927                                     sizeof(struct ipr_hostrcb),
6928                                     ioa_cfg->hostrcb[i],
6929                                     ioa_cfg->hostrcb_dma[i]);
6930         }
6931
6932         ipr_free_dump(ioa_cfg);
6933         kfree(ioa_cfg->trace);
6934 }
6935
6936 /**
6937  * ipr_free_all_resources - Free all allocated resources for an adapter.
6938  * @ipr_cmd:    ipr command struct
6939  *
6940  * This function frees all allocated resources for the
6941  * specified adapter.
6942  *
6943  * Return value:
6944  *      none
6945  **/
6946 static void ipr_free_all_resources(struct ipr_ioa_cfg *ioa_cfg)
6947 {
6948         struct pci_dev *pdev = ioa_cfg->pdev;
6949
6950         ENTER;
6951         free_irq(pdev->irq, ioa_cfg);
6952         iounmap(ioa_cfg->hdw_dma_regs);
6953         pci_release_regions(pdev);
6954         ipr_free_mem(ioa_cfg);
6955         scsi_host_put(ioa_cfg->host);
6956         pci_disable_device(pdev);
6957         LEAVE;
6958 }
6959
6960 /**
6961  * ipr_alloc_cmd_blks - Allocate command blocks for an adapter
6962  * @ioa_cfg:    ioa config struct
6963  *
6964  * Return value:
6965  *      0 on success / -ENOMEM on allocation failure
6966  **/
6967 static int __devinit ipr_alloc_cmd_blks(struct ipr_ioa_cfg *ioa_cfg)
6968 {
6969         struct ipr_cmnd *ipr_cmd;
6970         struct ipr_ioarcb *ioarcb;
6971         dma_addr_t dma_addr;
6972         int i;
6973
6974         ioa_cfg->ipr_cmd_pool = pci_pool_create (IPR_NAME, ioa_cfg->pdev,
6975                                                  sizeof(struct ipr_cmnd), 8, 0);
6976
6977         if (!ioa_cfg->ipr_cmd_pool)
6978                 return -ENOMEM;
6979
6980         for (i = 0; i < IPR_NUM_CMD_BLKS; i++) {
6981                 ipr_cmd = pci_pool_alloc (ioa_cfg->ipr_cmd_pool, GFP_KERNEL, &dma_addr);
6982
6983                 if (!ipr_cmd) {
6984                         ipr_free_cmd_blks(ioa_cfg);
6985                         return -ENOMEM;
6986                 }
6987
6988                 memset(ipr_cmd, 0, sizeof(*ipr_cmd));
6989                 ioa_cfg->ipr_cmnd_list[i] = ipr_cmd;
6990                 ioa_cfg->ipr_cmnd_list_dma[i] = dma_addr;
6991
6992                 ioarcb = &ipr_cmd->ioarcb;
6993                 ioarcb->ioarcb_host_pci_addr = cpu_to_be32(dma_addr);
6994                 ioarcb->host_response_handle = cpu_to_be32(i << 2);
6995                 ioarcb->write_ioadl_addr =
6996                         cpu_to_be32(dma_addr + offsetof(struct ipr_cmnd, ioadl));
6997                 ioarcb->read_ioadl_addr = ioarcb->write_ioadl_addr;
6998                 ioarcb->ioasa_host_pci_addr =
6999                         cpu_to_be32(dma_addr + offsetof(struct ipr_cmnd, ioasa));
7000                 ioarcb->ioasa_len = cpu_to_be16(sizeof(struct ipr_ioasa));
7001                 ipr_cmd->cmd_index = i;
7002                 ipr_cmd->ioa_cfg = ioa_cfg;
7003                 ipr_cmd->sense_buffer_dma = dma_addr +
7004                         offsetof(struct ipr_cmnd, sense_buffer);
7005
7006                 list_add_tail(&ipr_cmd->queue, &ioa_cfg->free_q);
7007         }
7008
7009         return 0;
7010 }
7011
7012 /**
7013  * ipr_alloc_mem - Allocate memory for an adapter
7014  * @ioa_cfg:    ioa config struct
7015  *
7016  * Return value:
7017  *      0 on success / non-zero for error
7018  **/
7019 static int __devinit ipr_alloc_mem(struct ipr_ioa_cfg *ioa_cfg)
7020 {
7021         struct pci_dev *pdev = ioa_cfg->pdev;
7022         int i, rc = -ENOMEM;
7023
7024         ENTER;
7025         ioa_cfg->res_entries = kzalloc(sizeof(struct ipr_resource_entry) *
7026                                        IPR_MAX_PHYSICAL_DEVS, GFP_KERNEL);
7027
7028         if (!ioa_cfg->res_entries)
7029                 goto out;
7030
7031         for (i = 0; i < IPR_MAX_PHYSICAL_DEVS; i++)
7032                 list_add_tail(&ioa_cfg->res_entries[i].queue, &ioa_cfg->free_res_q);
7033
7034         ioa_cfg->vpd_cbs = pci_alloc_consistent(ioa_cfg->pdev,
7035                                                 sizeof(struct ipr_misc_cbs),
7036                                                 &ioa_cfg->vpd_cbs_dma);
7037
7038         if (!ioa_cfg->vpd_cbs)
7039                 goto out_free_res_entries;
7040
7041         if (ipr_alloc_cmd_blks(ioa_cfg))
7042                 goto out_free_vpd_cbs;
7043
7044         ioa_cfg->host_rrq = pci_alloc_consistent(ioa_cfg->pdev,
7045                                                  sizeof(u32) * IPR_NUM_CMD_BLKS,
7046                                                  &ioa_cfg->host_rrq_dma);
7047
7048         if (!ioa_cfg->host_rrq)
7049                 goto out_ipr_free_cmd_blocks;
7050
7051         ioa_cfg->cfg_table = pci_alloc_consistent(ioa_cfg->pdev,
7052                                                   sizeof(struct ipr_config_table),
7053                                                   &ioa_cfg->cfg_table_dma);
7054
7055         if (!ioa_cfg->cfg_table)
7056                 goto out_free_host_rrq;
7057
7058         for (i = 0; i < IPR_NUM_HCAMS; i++) {
7059                 ioa_cfg->hostrcb[i] = pci_alloc_consistent(ioa_cfg->pdev,
7060                                                            sizeof(struct ipr_hostrcb),
7061                                                            &ioa_cfg->hostrcb_dma[i]);
7062
7063                 if (!ioa_cfg->hostrcb[i])
7064                         goto out_free_hostrcb_dma;
7065
7066                 ioa_cfg->hostrcb[i]->hostrcb_dma =
7067                         ioa_cfg->hostrcb_dma[i] + offsetof(struct ipr_hostrcb, hcam);
7068                 ioa_cfg->hostrcb[i]->ioa_cfg = ioa_cfg;
7069                 list_add_tail(&ioa_cfg->hostrcb[i]->queue, &ioa_cfg->hostrcb_free_q);
7070         }
7071
7072         ioa_cfg->trace = kzalloc(sizeof(struct ipr_trace_entry) *
7073                                  IPR_NUM_TRACE_ENTRIES, GFP_KERNEL);
7074
7075         if (!ioa_cfg->trace)
7076                 goto out_free_hostrcb_dma;
7077
7078         rc = 0;
7079 out:
7080         LEAVE;
7081         return rc;
7082
7083 out_free_hostrcb_dma:
7084         while (i-- > 0) {
7085                 pci_free_consistent(pdev, sizeof(struct ipr_hostrcb),
7086                                     ioa_cfg->hostrcb[i],
7087                                     ioa_cfg->hostrcb_dma[i]);
7088         }
7089         pci_free_consistent(pdev, sizeof(struct ipr_config_table),
7090                             ioa_cfg->cfg_table, ioa_cfg->cfg_table_dma);
7091 out_free_host_rrq:
7092         pci_free_consistent(pdev, sizeof(u32) * IPR_NUM_CMD_BLKS,
7093                             ioa_cfg->host_rrq, ioa_cfg->host_rrq_dma);
7094 out_ipr_free_cmd_blocks:
7095         ipr_free_cmd_blks(ioa_cfg);
7096 out_free_vpd_cbs:
7097         pci_free_consistent(pdev, sizeof(struct ipr_misc_cbs),
7098                             ioa_cfg->vpd_cbs, ioa_cfg->vpd_cbs_dma);
7099 out_free_res_entries:
7100         kfree(ioa_cfg->res_entries);
7101         goto out;
7102 }
7103
7104 /**
7105  * ipr_initialize_bus_attr - Initialize SCSI bus attributes to default values
7106  * @ioa_cfg:    ioa config struct
7107  *
7108  * Return value:
7109  *      none
7110  **/
7111 static void __devinit ipr_initialize_bus_attr(struct ipr_ioa_cfg *ioa_cfg)
7112 {
7113         int i;
7114
7115         for (i = 0; i < IPR_MAX_NUM_BUSES; i++) {
7116                 ioa_cfg->bus_attr[i].bus = i;
7117                 ioa_cfg->bus_attr[i].qas_enabled = 0;
7118                 ioa_cfg->bus_attr[i].bus_width = IPR_DEFAULT_BUS_WIDTH;
7119                 if (ipr_max_speed < ARRAY_SIZE(ipr_max_bus_speeds))
7120                         ioa_cfg->bus_attr[i].max_xfer_rate = ipr_max_bus_speeds[ipr_max_speed];
7121                 else
7122                         ioa_cfg->bus_attr[i].max_xfer_rate = IPR_U160_SCSI_RATE;
7123         }
7124 }
7125
7126 /**
7127  * ipr_init_ioa_cfg - Initialize IOA config struct
7128  * @ioa_cfg:    ioa config struct
7129  * @host:               scsi host struct
7130  * @pdev:               PCI dev struct
7131  *
7132  * Return value:
7133  *      none
7134  **/
7135 static void __devinit ipr_init_ioa_cfg(struct ipr_ioa_cfg *ioa_cfg,
7136                                        struct Scsi_Host *host, struct pci_dev *pdev)
7137 {
7138         const struct ipr_interrupt_offsets *p;
7139         struct ipr_interrupts *t;
7140         void __iomem *base;
7141
7142         ioa_cfg->host = host;
7143         ioa_cfg->pdev = pdev;
7144         ioa_cfg->log_level = ipr_log_level;
7145         ioa_cfg->doorbell = IPR_DOORBELL;
7146         sprintf(ioa_cfg->eye_catcher, IPR_EYECATCHER);
7147         sprintf(ioa_cfg->trace_start, IPR_TRACE_START_LABEL);
7148         sprintf(ioa_cfg->ipr_free_label, IPR_FREEQ_LABEL);
7149         sprintf(ioa_cfg->ipr_pending_label, IPR_PENDQ_LABEL);
7150         sprintf(ioa_cfg->cfg_table_start, IPR_CFG_TBL_START);
7151         sprintf(ioa_cfg->resource_table_label, IPR_RES_TABLE_LABEL);
7152         sprintf(ioa_cfg->ipr_hcam_label, IPR_HCAM_LABEL);
7153         sprintf(ioa_cfg->ipr_cmd_label, IPR_CMD_LABEL);
7154
7155         INIT_LIST_HEAD(&ioa_cfg->free_q);
7156         INIT_LIST_HEAD(&ioa_cfg->pending_q);
7157         INIT_LIST_HEAD(&ioa_cfg->hostrcb_free_q);
7158         INIT_LIST_HEAD(&ioa_cfg->hostrcb_pending_q);
7159         INIT_LIST_HEAD(&ioa_cfg->free_res_q);
7160         INIT_LIST_HEAD(&ioa_cfg->used_res_q);
7161         INIT_WORK(&ioa_cfg->work_q, ipr_worker_thread);
7162         init_waitqueue_head(&ioa_cfg->reset_wait_q);
7163         ioa_cfg->sdt_state = INACTIVE;
7164         if (ipr_enable_cache)
7165                 ioa_cfg->cache_state = CACHE_ENABLED;
7166         else
7167                 ioa_cfg->cache_state = CACHE_DISABLED;
7168
7169         ipr_initialize_bus_attr(ioa_cfg);
7170
7171         host->max_id = IPR_MAX_NUM_TARGETS_PER_BUS;
7172         host->max_lun = IPR_MAX_NUM_LUNS_PER_TARGET;
7173         host->max_channel = IPR_MAX_BUS_TO_SCAN;
7174         host->unique_id = host->host_no;
7175         host->max_cmd_len = IPR_MAX_CDB_LEN;
7176         pci_set_drvdata(pdev, ioa_cfg);
7177
7178         p = &ioa_cfg->chip_cfg->regs;
7179         t = &ioa_cfg->regs;
7180         base = ioa_cfg->hdw_dma_regs;
7181
7182         t->set_interrupt_mask_reg = base + p->set_interrupt_mask_reg;
7183         t->clr_interrupt_mask_reg = base + p->clr_interrupt_mask_reg;
7184         t->sense_interrupt_mask_reg = base + p->sense_interrupt_mask_reg;
7185         t->clr_interrupt_reg = base + p->clr_interrupt_reg;
7186         t->sense_interrupt_reg = base + p->sense_interrupt_reg;
7187         t->ioarrin_reg = base + p->ioarrin_reg;
7188         t->sense_uproc_interrupt_reg = base + p->sense_uproc_interrupt_reg;
7189         t->set_uproc_interrupt_reg = base + p->set_uproc_interrupt_reg;
7190         t->clr_uproc_interrupt_reg = base + p->clr_uproc_interrupt_reg;
7191 }
7192
7193 /**
7194  * ipr_get_chip_cfg - Find adapter chip configuration
7195  * @dev_id:             PCI device id struct
7196  *
7197  * Return value:
7198  *      ptr to chip config on success / NULL on failure
7199  **/
7200 static const struct ipr_chip_cfg_t * __devinit
7201 ipr_get_chip_cfg(const struct pci_device_id *dev_id)
7202 {
7203         int i;
7204
7205         for (i = 0; i < ARRAY_SIZE(ipr_chip); i++)
7206                 if (ipr_chip[i].vendor == dev_id->vendor &&
7207                     ipr_chip[i].device == dev_id->device)
7208                         return ipr_chip[i].cfg;
7209         return NULL;
7210 }
7211
7212 /**
7213  * ipr_probe_ioa - Allocates memory and does first stage of initialization
7214  * @pdev:               PCI device struct
7215  * @dev_id:             PCI device id struct
7216  *
7217  * Return value:
7218  *      0 on success / non-zero on failure
7219  **/
7220 static int __devinit ipr_probe_ioa(struct pci_dev *pdev,
7221                                    const struct pci_device_id *dev_id)
7222 {
7223         struct ipr_ioa_cfg *ioa_cfg;
7224         struct Scsi_Host *host;
7225         unsigned long ipr_regs_pci;
7226         void __iomem *ipr_regs;
7227         int rc = PCIBIOS_SUCCESSFUL;
7228         volatile u32 mask, uproc;
7229
7230         ENTER;
7231
7232         if ((rc = pci_enable_device(pdev))) {
7233                 dev_err(&pdev->dev, "Cannot enable adapter\n");
7234                 goto out;
7235         }
7236
7237         dev_info(&pdev->dev, "Found IOA with IRQ: %d\n", pdev->irq);
7238
7239         host = scsi_host_alloc(&driver_template, sizeof(*ioa_cfg));
7240
7241         if (!host) {
7242                 dev_err(&pdev->dev, "call to scsi_host_alloc failed!\n");
7243                 rc = -ENOMEM;
7244                 goto out_disable;
7245         }
7246
7247         ioa_cfg = (struct ipr_ioa_cfg *)host->hostdata;
7248         memset(ioa_cfg, 0, sizeof(struct ipr_ioa_cfg));
7249         ata_host_init(&ioa_cfg->ata_host, &pdev->dev,
7250                       sata_port_info.flags, &ipr_sata_ops);
7251
7252         ioa_cfg->chip_cfg = ipr_get_chip_cfg(dev_id);
7253
7254         if (!ioa_cfg->chip_cfg) {
7255                 dev_err(&pdev->dev, "Unknown adapter chipset 0x%04X 0x%04X\n",
7256                         dev_id->vendor, dev_id->device);
7257                 goto out_scsi_host_put;
7258         }
7259
7260         if (ipr_transop_timeout)
7261                 ioa_cfg->transop_timeout = ipr_transop_timeout;
7262         else if (dev_id->driver_data & IPR_USE_LONG_TRANSOP_TIMEOUT)
7263                 ioa_cfg->transop_timeout = IPR_LONG_OPERATIONAL_TIMEOUT;
7264         else
7265                 ioa_cfg->transop_timeout = IPR_OPERATIONAL_TIMEOUT;
7266
7267         ipr_regs_pci = pci_resource_start(pdev, 0);
7268
7269         rc = pci_request_regions(pdev, IPR_NAME);
7270         if (rc < 0) {
7271                 dev_err(&pdev->dev,
7272                         "Couldn't register memory range of registers\n");
7273                 goto out_scsi_host_put;
7274         }
7275
7276         ipr_regs = ioremap(ipr_regs_pci, pci_resource_len(pdev, 0));
7277
7278         if (!ipr_regs) {
7279                 dev_err(&pdev->dev,
7280                         "Couldn't map memory range of registers\n");
7281                 rc = -ENOMEM;
7282                 goto out_release_regions;
7283         }
7284
7285         ioa_cfg->hdw_dma_regs = ipr_regs;
7286         ioa_cfg->hdw_dma_regs_pci = ipr_regs_pci;
7287         ioa_cfg->ioa_mailbox = ioa_cfg->chip_cfg->mailbox + ipr_regs;
7288
7289         ipr_init_ioa_cfg(ioa_cfg, host, pdev);
7290
7291         pci_set_master(pdev);
7292
7293         rc = pci_set_dma_mask(pdev, DMA_32BIT_MASK);
7294         if (rc < 0) {
7295                 dev_err(&pdev->dev, "Failed to set PCI DMA mask\n");
7296                 goto cleanup_nomem;
7297         }
7298
7299         rc = pci_write_config_byte(pdev, PCI_CACHE_LINE_SIZE,
7300                                    ioa_cfg->chip_cfg->cache_line_size);
7301
7302         if (rc != PCIBIOS_SUCCESSFUL) {
7303                 dev_err(&pdev->dev, "Write of cache line size failed\n");
7304                 rc = -EIO;
7305                 goto cleanup_nomem;
7306         }
7307
7308         /* Save away PCI config space for use following IOA reset */
7309         rc = pci_save_state(pdev);
7310
7311         if (rc != PCIBIOS_SUCCESSFUL) {
7312                 dev_err(&pdev->dev, "Failed to save PCI config space\n");
7313                 rc = -EIO;
7314                 goto cleanup_nomem;
7315         }
7316
7317         if ((rc = ipr_save_pcix_cmd_reg(ioa_cfg)))
7318                 goto cleanup_nomem;
7319
7320         if ((rc = ipr_set_pcix_cmd_reg(ioa_cfg)))
7321                 goto cleanup_nomem;
7322
7323         rc = ipr_alloc_mem(ioa_cfg);
7324         if (rc < 0) {
7325                 dev_err(&pdev->dev,
7326                         "Couldn't allocate enough memory for device driver!\n");
7327                 goto cleanup_nomem;
7328         }
7329
7330         /*
7331          * If HRRQ updated interrupt is not masked, or reset alert is set,
7332          * the card is in an unknown state and needs a hard reset
7333          */
7334         mask = readl(ioa_cfg->regs.sense_interrupt_mask_reg);
7335         uproc = readl(ioa_cfg->regs.sense_uproc_interrupt_reg);
7336         if ((mask & IPR_PCII_HRRQ_UPDATED) == 0 || (uproc & IPR_UPROCI_RESET_ALERT))
7337                 ioa_cfg->needs_hard_reset = 1;
7338
7339         ipr_mask_and_clear_interrupts(ioa_cfg, ~IPR_PCII_IOA_TRANS_TO_OPER);
7340         rc = request_irq(pdev->irq, ipr_isr, IRQF_SHARED, IPR_NAME, ioa_cfg);
7341
7342         if (rc) {
7343                 dev_err(&pdev->dev, "Couldn't register IRQ %d! rc=%d\n",
7344                         pdev->irq, rc);
7345                 goto cleanup_nolog;
7346         }
7347
7348         spin_lock(&ipr_driver_lock);
7349         list_add_tail(&ioa_cfg->queue, &ipr_ioa_head);
7350         spin_unlock(&ipr_driver_lock);
7351
7352         LEAVE;
7353 out:
7354         return rc;
7355
7356 cleanup_nolog:
7357         ipr_free_mem(ioa_cfg);
7358 cleanup_nomem:
7359         iounmap(ipr_regs);
7360 out_release_regions:
7361         pci_release_regions(pdev);
7362 out_scsi_host_put:
7363         scsi_host_put(host);
7364 out_disable:
7365         pci_disable_device(pdev);
7366         goto out;
7367 }
7368
7369 /**
7370  * ipr_scan_vsets - Scans for VSET devices
7371  * @ioa_cfg:    ioa config struct
7372  *
7373  * Description: Since the VSET resources do not follow SAM in that we can have
7374  * sparse LUNs with no LUN 0, we have to scan for these ourselves.
7375  *
7376  * Return value:
7377  *      none
7378  **/
7379 static void ipr_scan_vsets(struct ipr_ioa_cfg *ioa_cfg)
7380 {
7381         int target, lun;
7382
7383         for (target = 0; target < IPR_MAX_NUM_TARGETS_PER_BUS; target++)
7384                 for (lun = 0; lun < IPR_MAX_NUM_VSET_LUNS_PER_TARGET; lun++ )
7385                         scsi_add_device(ioa_cfg->host, IPR_VSET_BUS, target, lun);
7386 }
7387
7388 /**
7389  * ipr_initiate_ioa_bringdown - Bring down an adapter
7390  * @ioa_cfg:            ioa config struct
7391  * @shutdown_type:      shutdown type
7392  *
7393  * Description: This function will initiate bringing down the adapter.
7394  * This consists of issuing an IOA shutdown to the adapter
7395  * to flush the cache, and running BIST.
7396  * If the caller needs to wait on the completion of the reset,
7397  * the caller must sleep on the reset_wait_q.
7398  *
7399  * Return value:
7400  *      none
7401  **/
7402 static void ipr_initiate_ioa_bringdown(struct ipr_ioa_cfg *ioa_cfg,
7403                                        enum ipr_shutdown_type shutdown_type)
7404 {
7405         ENTER;
7406         if (ioa_cfg->sdt_state == WAIT_FOR_DUMP)
7407                 ioa_cfg->sdt_state = ABORT_DUMP;
7408         ioa_cfg->reset_retries = 0;
7409         ioa_cfg->in_ioa_bringdown = 1;
7410         ipr_initiate_ioa_reset(ioa_cfg, shutdown_type);
7411         LEAVE;
7412 }
7413
7414 /**
7415  * __ipr_remove - Remove a single adapter
7416  * @pdev:       pci device struct
7417  *
7418  * Adapter hot plug remove entry point.
7419  *
7420  * Return value:
7421  *      none
7422  **/
7423 static void __ipr_remove(struct pci_dev *pdev)
7424 {
7425         unsigned long host_lock_flags = 0;
7426         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
7427         ENTER;
7428
7429         spin_lock_irqsave(ioa_cfg->host->host_lock, host_lock_flags);
7430         ipr_initiate_ioa_bringdown(ioa_cfg, IPR_SHUTDOWN_NORMAL);
7431
7432         spin_unlock_irqrestore(ioa_cfg->host->host_lock, host_lock_flags);
7433         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
7434         flush_scheduled_work();
7435         spin_lock_irqsave(ioa_cfg->host->host_lock, host_lock_flags);
7436
7437         spin_lock(&ipr_driver_lock);
7438         list_del(&ioa_cfg->queue);
7439         spin_unlock(&ipr_driver_lock);
7440
7441         if (ioa_cfg->sdt_state == ABORT_DUMP)
7442                 ioa_cfg->sdt_state = WAIT_FOR_DUMP;
7443         spin_unlock_irqrestore(ioa_cfg->host->host_lock, host_lock_flags);
7444
7445         ipr_free_all_resources(ioa_cfg);
7446
7447         LEAVE;
7448 }
7449
7450 /**
7451  * ipr_remove - IOA hot plug remove entry point
7452  * @pdev:       pci device struct
7453  *
7454  * Adapter hot plug remove entry point.
7455  *
7456  * Return value:
7457  *      none
7458  **/
7459 static void ipr_remove(struct pci_dev *pdev)
7460 {
7461         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
7462
7463         ENTER;
7464
7465         ipr_remove_trace_file(&ioa_cfg->host->shost_classdev.kobj,
7466                               &ipr_trace_attr);
7467         ipr_remove_dump_file(&ioa_cfg->host->shost_classdev.kobj,
7468                              &ipr_dump_attr);
7469         scsi_remove_host(ioa_cfg->host);
7470
7471         __ipr_remove(pdev);
7472
7473         LEAVE;
7474 }
7475
7476 /**
7477  * ipr_probe - Adapter hot plug add entry point
7478  *
7479  * Return value:
7480  *      0 on success / non-zero on failure
7481  **/
7482 static int __devinit ipr_probe(struct pci_dev *pdev,
7483                                const struct pci_device_id *dev_id)
7484 {
7485         struct ipr_ioa_cfg *ioa_cfg;
7486         int rc;
7487
7488         rc = ipr_probe_ioa(pdev, dev_id);
7489
7490         if (rc)
7491                 return rc;
7492
7493         ioa_cfg = pci_get_drvdata(pdev);
7494         rc = ipr_probe_ioa_part2(ioa_cfg);
7495
7496         if (rc) {
7497                 __ipr_remove(pdev);
7498                 return rc;
7499         }
7500
7501         rc = scsi_add_host(ioa_cfg->host, &pdev->dev);
7502
7503         if (rc) {
7504                 __ipr_remove(pdev);
7505                 return rc;
7506         }
7507
7508         rc = ipr_create_trace_file(&ioa_cfg->host->shost_classdev.kobj,
7509                                    &ipr_trace_attr);
7510
7511         if (rc) {
7512                 scsi_remove_host(ioa_cfg->host);
7513                 __ipr_remove(pdev);
7514                 return rc;
7515         }
7516
7517         rc = ipr_create_dump_file(&ioa_cfg->host->shost_classdev.kobj,
7518                                    &ipr_dump_attr);
7519
7520         if (rc) {
7521                 ipr_remove_trace_file(&ioa_cfg->host->shost_classdev.kobj,
7522                                       &ipr_trace_attr);
7523                 scsi_remove_host(ioa_cfg->host);
7524                 __ipr_remove(pdev);
7525                 return rc;
7526         }
7527
7528         scsi_scan_host(ioa_cfg->host);
7529         ipr_scan_vsets(ioa_cfg);
7530         scsi_add_device(ioa_cfg->host, IPR_IOA_BUS, IPR_IOA_TARGET, IPR_IOA_LUN);
7531         ioa_cfg->allow_ml_add_del = 1;
7532         ioa_cfg->host->max_channel = IPR_VSET_BUS;
7533         schedule_work(&ioa_cfg->work_q);
7534         return 0;
7535 }
7536
7537 /**
7538  * ipr_shutdown - Shutdown handler.
7539  * @pdev:       pci device struct
7540  *
7541  * This function is invoked upon system shutdown/reboot. It will issue
7542  * an adapter shutdown to the adapter to flush the write cache.
7543  *
7544  * Return value:
7545  *      none
7546  **/
7547 static void ipr_shutdown(struct pci_dev *pdev)
7548 {
7549         struct ipr_ioa_cfg *ioa_cfg = pci_get_drvdata(pdev);
7550         unsigned long lock_flags = 0;
7551
7552         spin_lock_irqsave(ioa_cfg->host->host_lock, lock_flags);
7553         ipr_initiate_ioa_bringdown(ioa_cfg, IPR_SHUTDOWN_NORMAL);
7554         spin_unlock_irqrestore(ioa_cfg->host->host_lock, lock_flags);
7555         wait_event(ioa_cfg->reset_wait_q, !ioa_cfg->in_reset_reload);
7556 }
7557
7558 static struct pci_device_id ipr_pci_table[] __devinitdata = {
7559         { PCI_VENDOR_ID_MYLEX, PCI_DEVICE_ID_IBM_GEMSTONE,
7560                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_5702, 0, 0, 0 },
7561         { PCI_VENDOR_ID_MYLEX, PCI_DEVICE_ID_IBM_GEMSTONE,
7562                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_5703, 0, 0, 0 },
7563         { PCI_VENDOR_ID_MYLEX, PCI_DEVICE_ID_IBM_GEMSTONE,
7564                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_573D, 0, 0, 0 },
7565         { PCI_VENDOR_ID_MYLEX, PCI_DEVICE_ID_IBM_GEMSTONE,
7566                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_573E, 0, 0, 0 },
7567         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_CITRINE,
7568                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_571B, 0, 0, 0 },
7569         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_CITRINE,
7570                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572E, 0, 0, 0 },
7571         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_CITRINE,
7572                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_571A, 0, 0, 0 },
7573         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_CITRINE,
7574                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_575B, 0, 0,
7575                 IPR_USE_LONG_TRANSOP_TIMEOUT },
7576         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_OBSIDIAN,
7577               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572A, 0, 0, 0 },
7578         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_OBSIDIAN,
7579               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572B, 0, 0, 0 },
7580         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_OBSIDIAN,
7581               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_575C, 0, 0,
7582               IPR_USE_LONG_TRANSOP_TIMEOUT },
7583         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN,
7584               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572A, 0, 0, 0 },
7585         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN,
7586               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572B, 0, 0, 0 },
7587         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN,
7588               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_575C, 0, 0,
7589               IPR_USE_LONG_TRANSOP_TIMEOUT },
7590         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN_E,
7591               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_574E, 0, 0, 0 },
7592         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN_E,
7593               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_575D, 0, 0,
7594               IPR_USE_LONG_TRANSOP_TIMEOUT },
7595         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN_E,
7596               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_57B3, 0, 0, 0 },
7597         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_OBSIDIAN_E,
7598               PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_57B7, 0, 0,
7599               IPR_USE_LONG_TRANSOP_TIMEOUT },
7600         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_SNIPE,
7601                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_2780, 0, 0, 0 },
7602         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_SCAMP,
7603                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_571E, 0, 0, 0 },
7604         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_SCAMP,
7605                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_571F, 0, 0,
7606                 IPR_USE_LONG_TRANSOP_TIMEOUT },
7607         { PCI_VENDOR_ID_ADAPTEC2, PCI_DEVICE_ID_ADAPTEC2_SCAMP,
7608                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_572F, 0, 0,
7609                 IPR_USE_LONG_TRANSOP_TIMEOUT },
7610         { PCI_VENDOR_ID_IBM, PCI_DEVICE_ID_IBM_SCAMP_E,
7611                 PCI_VENDOR_ID_IBM, IPR_SUBS_DEV_ID_574D, 0, 0,
7612                 IPR_USE_LONG_TRANSOP_TIMEOUT },
7613         { }
7614 };
7615 MODULE_DEVICE_TABLE(pci, ipr_pci_table);
7616
7617 static struct pci_error_handlers ipr_err_handler = {
7618         .error_detected = ipr_pci_error_detected,
7619         .slot_reset = ipr_pci_slot_reset,
7620 };
7621
7622 static struct pci_driver ipr_driver = {
7623         .name = IPR_NAME,
7624         .id_table = ipr_pci_table,
7625         .probe = ipr_probe,
7626         .remove = ipr_remove,
7627         .shutdown = ipr_shutdown,
7628         .err_handler = &ipr_err_handler,
7629 };
7630
7631 /**
7632  * ipr_init - Module entry point
7633  *
7634  * Return value:
7635  *      0 on success / negative value on failure
7636  **/
7637 static int __init ipr_init(void)
7638 {
7639         ipr_info("IBM Power RAID SCSI Device Driver version: %s %s\n",
7640                  IPR_DRIVER_VERSION, IPR_DRIVER_DATE);
7641
7642         return pci_register_driver(&ipr_driver);
7643 }
7644
7645 /**
7646  * ipr_exit - Module unload
7647  *
7648  * Module unload entry point.
7649  *
7650  * Return value:
7651  *      none
7652  **/
7653 static void __exit ipr_exit(void)
7654 {
7655         pci_unregister_driver(&ipr_driver);
7656 }
7657
7658 module_init(ipr_init);
7659 module_exit(ipr_exit);