libata: fix bug with non-ncq devices
[safe/jmp/linux-2.6] / drivers / ata / libata-scsi.c
1 /*
2  *  libata-scsi.c - helper library for ATA
3  *
4  *  Maintained by:  Jeff Garzik <jgarzik@pobox.com>
5  *                  Please ALWAYS copy linux-ide@vger.kernel.org
6  *                  on emails.
7  *
8  *  Copyright 2003-2004 Red Hat, Inc.  All rights reserved.
9  *  Copyright 2003-2004 Jeff Garzik
10  *
11  *
12  *  This program is free software; you can redistribute it and/or modify
13  *  it under the terms of the GNU General Public License as published by
14  *  the Free Software Foundation; either version 2, or (at your option)
15  *  any later version.
16  *
17  *  This program is distributed in the hope that it will be useful,
18  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
19  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
20  *  GNU General Public License for more details.
21  *
22  *  You should have received a copy of the GNU General Public License
23  *  along with this program; see the file COPYING.  If not, write to
24  *  the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.
25  *
26  *
27  *  libata documentation is available via 'make {ps|pdf}docs',
28  *  as Documentation/DocBook/libata.*
29  *
30  *  Hardware documentation available from
31  *  - http://www.t10.org/
32  *  - http://www.t13.org/
33  *
34  */
35
36 #include <linux/kernel.h>
37 #include <linux/blkdev.h>
38 #include <linux/spinlock.h>
39 #include <scsi/scsi.h>
40 #include <scsi/scsi_host.h>
41 #include <scsi/scsi_cmnd.h>
42 #include <scsi/scsi_eh.h>
43 #include <scsi/scsi_device.h>
44 #include <scsi/scsi_tcq.h>
45 #include <scsi/scsi_transport.h>
46 #include <linux/libata.h>
47 #include <linux/hdreg.h>
48 #include <linux/uaccess.h>
49
50 #include "libata.h"
51
52 #define SECTOR_SIZE             512
53 #define ATA_SCSI_RBUF_SIZE      4096
54
55 static DEFINE_SPINLOCK(ata_scsi_rbuf_lock);
56 static u8 ata_scsi_rbuf[ATA_SCSI_RBUF_SIZE];
57
58 typedef unsigned int (*ata_xlat_func_t)(struct ata_queued_cmd *qc);
59
60 static struct ata_device *__ata_scsi_find_dev(struct ata_port *ap,
61                                         const struct scsi_device *scsidev);
62 static struct ata_device *ata_scsi_find_dev(struct ata_port *ap,
63                                             const struct scsi_device *scsidev);
64 static int ata_scsi_user_scan(struct Scsi_Host *shost, unsigned int channel,
65                               unsigned int id, unsigned int lun);
66
67
68 #define RW_RECOVERY_MPAGE 0x1
69 #define RW_RECOVERY_MPAGE_LEN 12
70 #define CACHE_MPAGE 0x8
71 #define CACHE_MPAGE_LEN 20
72 #define CONTROL_MPAGE 0xa
73 #define CONTROL_MPAGE_LEN 12
74 #define ALL_MPAGES 0x3f
75 #define ALL_SUB_MPAGES 0xff
76
77
78 static const u8 def_rw_recovery_mpage[RW_RECOVERY_MPAGE_LEN] = {
79         RW_RECOVERY_MPAGE,
80         RW_RECOVERY_MPAGE_LEN - 2,
81         (1 << 7),       /* AWRE */
82         0,              /* read retry count */
83         0, 0, 0, 0,
84         0,              /* write retry count */
85         0, 0, 0
86 };
87
88 static const u8 def_cache_mpage[CACHE_MPAGE_LEN] = {
89         CACHE_MPAGE,
90         CACHE_MPAGE_LEN - 2,
91         0,              /* contains WCE, needs to be 0 for logic */
92         0, 0, 0, 0, 0, 0, 0, 0, 0,
93         0,              /* contains DRA, needs to be 0 for logic */
94         0, 0, 0, 0, 0, 0, 0
95 };
96
97 static const u8 def_control_mpage[CONTROL_MPAGE_LEN] = {
98         CONTROL_MPAGE,
99         CONTROL_MPAGE_LEN - 2,
100         2,      /* DSENSE=0, GLTSD=1 */
101         0,      /* [QAM+QERR may be 1, see 05-359r1] */
102         0, 0, 0, 0, 0xff, 0xff,
103         0, 30   /* extended self test time, see 05-359r1 */
104 };
105
106 /*
107  * libata transport template.  libata doesn't do real transport stuff.
108  * It just needs the eh_timed_out hook.
109  */
110 static struct scsi_transport_template ata_scsi_transport_template = {
111         .eh_strategy_handler    = ata_scsi_error,
112         .eh_timed_out           = ata_scsi_timed_out,
113         .user_scan              = ata_scsi_user_scan,
114 };
115
116
117 static const struct {
118         enum link_pm    value;
119         const char      *name;
120 } link_pm_policy[] = {
121         { NOT_AVAILABLE, "max_performance" },
122         { MIN_POWER, "min_power" },
123         { MAX_PERFORMANCE, "max_performance" },
124         { MEDIUM_POWER, "medium_power" },
125 };
126
127 static const char *ata_scsi_lpm_get(enum link_pm policy)
128 {
129         int i;
130
131         for (i = 0; i < ARRAY_SIZE(link_pm_policy); i++)
132                 if (link_pm_policy[i].value == policy)
133                         return link_pm_policy[i].name;
134
135         return NULL;
136 }
137
138 static ssize_t ata_scsi_lpm_put(struct device *dev,
139                                 struct device_attribute *attr,
140                                 const char *buf, size_t count)
141 {
142         struct Scsi_Host *shost = class_to_shost(dev);
143         struct ata_port *ap = ata_shost_to_port(shost);
144         enum link_pm policy = 0;
145         int i;
146
147         /*
148          * we are skipping array location 0 on purpose - this
149          * is because a value of NOT_AVAILABLE is displayed
150          * to the user as max_performance, but when the user
151          * writes "max_performance", they actually want the
152          * value to match MAX_PERFORMANCE.
153          */
154         for (i = 1; i < ARRAY_SIZE(link_pm_policy); i++) {
155                 const int len = strlen(link_pm_policy[i].name);
156                 if (strncmp(link_pm_policy[i].name, buf, len) == 0 &&
157                    buf[len] == '\n') {
158                         policy = link_pm_policy[i].value;
159                         break;
160                 }
161         }
162         if (!policy)
163                 return -EINVAL;
164
165         ata_lpm_schedule(ap, policy);
166         return count;
167 }
168
169 static ssize_t
170 ata_scsi_lpm_show(struct device *dev, struct device_attribute *attr, char *buf)
171 {
172         struct Scsi_Host *shost = class_to_shost(dev);
173         struct ata_port *ap = ata_shost_to_port(shost);
174         const char *policy =
175                 ata_scsi_lpm_get(ap->pm_policy);
176
177         if (!policy)
178                 return -EINVAL;
179
180         return snprintf(buf, 23, "%s\n", policy);
181 }
182 DEVICE_ATTR(link_power_management_policy, S_IRUGO | S_IWUSR,
183                 ata_scsi_lpm_show, ata_scsi_lpm_put);
184 EXPORT_SYMBOL_GPL(dev_attr_link_power_management_policy);
185
186 static ssize_t ata_scsi_park_show(struct device *device,
187                                   struct device_attribute *attr, char *buf)
188 {
189         struct scsi_device *sdev = to_scsi_device(device);
190         struct ata_port *ap;
191         struct ata_link *link;
192         struct ata_device *dev;
193         unsigned long flags;
194         unsigned int uninitialized_var(msecs);
195         int rc = 0;
196
197         ap = ata_shost_to_port(sdev->host);
198
199         spin_lock_irqsave(ap->lock, flags);
200         dev = ata_scsi_find_dev(ap, sdev);
201         if (!dev) {
202                 rc = -ENODEV;
203                 goto unlock;
204         }
205         if (dev->flags & ATA_DFLAG_NO_UNLOAD) {
206                 rc = -EOPNOTSUPP;
207                 goto unlock;
208         }
209
210         link = dev->link;
211         if (ap->pflags & ATA_PFLAG_EH_IN_PROGRESS &&
212             link->eh_context.unloaded_mask & (1 << dev->devno) &&
213             time_after(dev->unpark_deadline, jiffies))
214                 msecs = jiffies_to_msecs(dev->unpark_deadline - jiffies);
215         else
216                 msecs = 0;
217
218 unlock:
219         spin_unlock_irq(ap->lock);
220
221         return rc ? rc : snprintf(buf, 20, "%u\n", msecs);
222 }
223
224 static ssize_t ata_scsi_park_store(struct device *device,
225                                    struct device_attribute *attr,
226                                    const char *buf, size_t len)
227 {
228         struct scsi_device *sdev = to_scsi_device(device);
229         struct ata_port *ap;
230         struct ata_device *dev;
231         long int input;
232         unsigned long flags;
233         int rc;
234
235         rc = strict_strtol(buf, 10, &input);
236         if (rc || input < -2)
237                 return -EINVAL;
238         if (input > ATA_TMOUT_MAX_PARK) {
239                 rc = -EOVERFLOW;
240                 input = ATA_TMOUT_MAX_PARK;
241         }
242
243         ap = ata_shost_to_port(sdev->host);
244
245         spin_lock_irqsave(ap->lock, flags);
246         dev = ata_scsi_find_dev(ap, sdev);
247         if (unlikely(!dev)) {
248                 rc = -ENODEV;
249                 goto unlock;
250         }
251         if (dev->class != ATA_DEV_ATA) {
252                 rc = -EOPNOTSUPP;
253                 goto unlock;
254         }
255
256         if (input >= 0) {
257                 if (dev->flags & ATA_DFLAG_NO_UNLOAD) {
258                         rc = -EOPNOTSUPP;
259                         goto unlock;
260                 }
261
262                 dev->unpark_deadline = ata_deadline(jiffies, input);
263                 dev->link->eh_info.dev_action[dev->devno] |= ATA_EH_PARK;
264                 ata_port_schedule_eh(ap);
265                 complete(&ap->park_req_pending);
266         } else {
267                 switch (input) {
268                 case -1:
269                         dev->flags &= ~ATA_DFLAG_NO_UNLOAD;
270                         break;
271                 case -2:
272                         dev->flags |= ATA_DFLAG_NO_UNLOAD;
273                         break;
274                 }
275         }
276 unlock:
277         spin_unlock_irqrestore(ap->lock, flags);
278
279         return rc ? rc : len;
280 }
281 DEVICE_ATTR(unload_heads, S_IRUGO | S_IWUSR,
282             ata_scsi_park_show, ata_scsi_park_store);
283 EXPORT_SYMBOL_GPL(dev_attr_unload_heads);
284
285 static void ata_scsi_set_sense(struct scsi_cmnd *cmd, u8 sk, u8 asc, u8 ascq)
286 {
287         cmd->result = (DRIVER_SENSE << 24) | SAM_STAT_CHECK_CONDITION;
288
289         scsi_build_sense_buffer(0, cmd->sense_buffer, sk, asc, ascq);
290 }
291
292 static ssize_t
293 ata_scsi_em_message_store(struct device *dev, struct device_attribute *attr,
294                           const char *buf, size_t count)
295 {
296         struct Scsi_Host *shost = class_to_shost(dev);
297         struct ata_port *ap = ata_shost_to_port(shost);
298         if (ap->ops->em_store && (ap->flags & ATA_FLAG_EM))
299                 return ap->ops->em_store(ap, buf, count);
300         return -EINVAL;
301 }
302
303 static ssize_t
304 ata_scsi_em_message_show(struct device *dev, struct device_attribute *attr,
305                          char *buf)
306 {
307         struct Scsi_Host *shost = class_to_shost(dev);
308         struct ata_port *ap = ata_shost_to_port(shost);
309
310         if (ap->ops->em_show && (ap->flags & ATA_FLAG_EM))
311                 return ap->ops->em_show(ap, buf);
312         return -EINVAL;
313 }
314 DEVICE_ATTR(em_message, S_IRUGO | S_IWUGO,
315                 ata_scsi_em_message_show, ata_scsi_em_message_store);
316 EXPORT_SYMBOL_GPL(dev_attr_em_message);
317
318 static ssize_t
319 ata_scsi_em_message_type_show(struct device *dev, struct device_attribute *attr,
320                               char *buf)
321 {
322         struct Scsi_Host *shost = class_to_shost(dev);
323         struct ata_port *ap = ata_shost_to_port(shost);
324
325         return snprintf(buf, 23, "%d\n", ap->em_message_type);
326 }
327 DEVICE_ATTR(em_message_type, S_IRUGO,
328                   ata_scsi_em_message_type_show, NULL);
329 EXPORT_SYMBOL_GPL(dev_attr_em_message_type);
330
331 static ssize_t
332 ata_scsi_activity_show(struct device *dev, struct device_attribute *attr,
333                 char *buf)
334 {
335         struct scsi_device *sdev = to_scsi_device(dev);
336         struct ata_port *ap = ata_shost_to_port(sdev->host);
337         struct ata_device *atadev = ata_scsi_find_dev(ap, sdev);
338
339         if (ap->ops->sw_activity_show && (ap->flags & ATA_FLAG_SW_ACTIVITY))
340                 return ap->ops->sw_activity_show(atadev, buf);
341         return -EINVAL;
342 }
343
344 static ssize_t
345 ata_scsi_activity_store(struct device *dev, struct device_attribute *attr,
346         const char *buf, size_t count)
347 {
348         struct scsi_device *sdev = to_scsi_device(dev);
349         struct ata_port *ap = ata_shost_to_port(sdev->host);
350         struct ata_device *atadev = ata_scsi_find_dev(ap, sdev);
351         enum sw_activity val;
352         int rc;
353
354         if (ap->ops->sw_activity_store && (ap->flags & ATA_FLAG_SW_ACTIVITY)) {
355                 val = simple_strtoul(buf, NULL, 0);
356                 switch (val) {
357                 case OFF: case BLINK_ON: case BLINK_OFF:
358                         rc = ap->ops->sw_activity_store(atadev, val);
359                         if (!rc)
360                                 return count;
361                         else
362                                 return rc;
363                 }
364         }
365         return -EINVAL;
366 }
367 DEVICE_ATTR(sw_activity, S_IWUGO | S_IRUGO, ata_scsi_activity_show,
368                         ata_scsi_activity_store);
369 EXPORT_SYMBOL_GPL(dev_attr_sw_activity);
370
371 struct device_attribute *ata_common_sdev_attrs[] = {
372         &dev_attr_unload_heads,
373         NULL
374 };
375 EXPORT_SYMBOL_GPL(ata_common_sdev_attrs);
376
377 static void ata_scsi_invalid_field(struct scsi_cmnd *cmd,
378                                    void (*done)(struct scsi_cmnd *))
379 {
380         ata_scsi_set_sense(cmd, ILLEGAL_REQUEST, 0x24, 0x0);
381         /* "Invalid field in cbd" */
382         done(cmd);
383 }
384
385 /**
386  *      ata_std_bios_param - generic bios head/sector/cylinder calculator used by sd.
387  *      @sdev: SCSI device for which BIOS geometry is to be determined
388  *      @bdev: block device associated with @sdev
389  *      @capacity: capacity of SCSI device
390  *      @geom: location to which geometry will be output
391  *
392  *      Generic bios head/sector/cylinder calculator
393  *      used by sd. Most BIOSes nowadays expect a XXX/255/16  (CHS)
394  *      mapping. Some situations may arise where the disk is not
395  *      bootable if this is not used.
396  *
397  *      LOCKING:
398  *      Defined by the SCSI layer.  We don't really care.
399  *
400  *      RETURNS:
401  *      Zero.
402  */
403 int ata_std_bios_param(struct scsi_device *sdev, struct block_device *bdev,
404                        sector_t capacity, int geom[])
405 {
406         geom[0] = 255;
407         geom[1] = 63;
408         sector_div(capacity, 255*63);
409         geom[2] = capacity;
410
411         return 0;
412 }
413
414 /**
415  *      ata_get_identity - Handler for HDIO_GET_IDENTITY ioctl
416  *      @sdev: SCSI device to get identify data for
417  *      @arg: User buffer area for identify data
418  *
419  *      LOCKING:
420  *      Defined by the SCSI layer.  We don't really care.
421  *
422  *      RETURNS:
423  *      Zero on success, negative errno on error.
424  */
425 static int ata_get_identity(struct scsi_device *sdev, void __user *arg)
426 {
427         struct ata_port *ap = ata_shost_to_port(sdev->host);
428         struct ata_device *dev = ata_scsi_find_dev(ap, sdev);
429         u16 __user *dst = arg;
430         char buf[40];
431
432         if (!dev)
433                 return -ENOMSG;
434
435         if (copy_to_user(dst, dev->id, ATA_ID_WORDS * sizeof(u16)))
436                 return -EFAULT;
437
438         ata_id_string(dev->id, buf, ATA_ID_PROD, ATA_ID_PROD_LEN);
439         if (copy_to_user(dst + ATA_ID_PROD, buf, ATA_ID_PROD_LEN))
440                 return -EFAULT;
441
442         ata_id_string(dev->id, buf, ATA_ID_FW_REV, ATA_ID_FW_REV_LEN);
443         if (copy_to_user(dst + ATA_ID_FW_REV, buf, ATA_ID_FW_REV_LEN))
444                 return -EFAULT;
445
446         ata_id_string(dev->id, buf, ATA_ID_SERNO, ATA_ID_SERNO_LEN);
447         if (copy_to_user(dst + ATA_ID_SERNO, buf, ATA_ID_SERNO_LEN))
448                 return -EFAULT;
449
450         return 0;
451 }
452
453 /**
454  *      ata_cmd_ioctl - Handler for HDIO_DRIVE_CMD ioctl
455  *      @scsidev: Device to which we are issuing command
456  *      @arg: User provided data for issuing command
457  *
458  *      LOCKING:
459  *      Defined by the SCSI layer.  We don't really care.
460  *
461  *      RETURNS:
462  *      Zero on success, negative errno on error.
463  */
464 int ata_cmd_ioctl(struct scsi_device *scsidev, void __user *arg)
465 {
466         int rc = 0;
467         u8 scsi_cmd[MAX_COMMAND_SIZE];
468         u8 args[4], *argbuf = NULL, *sensebuf = NULL;
469         int argsize = 0;
470         enum dma_data_direction data_dir;
471         int cmd_result;
472
473         if (arg == NULL)
474                 return -EINVAL;
475
476         if (copy_from_user(args, arg, sizeof(args)))
477                 return -EFAULT;
478
479         sensebuf = kzalloc(SCSI_SENSE_BUFFERSIZE, GFP_NOIO);
480         if (!sensebuf)
481                 return -ENOMEM;
482
483         memset(scsi_cmd, 0, sizeof(scsi_cmd));
484
485         if (args[3]) {
486                 argsize = SECTOR_SIZE * args[3];
487                 argbuf = kmalloc(argsize, GFP_KERNEL);
488                 if (argbuf == NULL) {
489                         rc = -ENOMEM;
490                         goto error;
491                 }
492
493                 scsi_cmd[1]  = (4 << 1); /* PIO Data-in */
494                 scsi_cmd[2]  = 0x0e;     /* no off.line or cc, read from dev,
495                                             block count in sector count field */
496                 data_dir = DMA_FROM_DEVICE;
497         } else {
498                 scsi_cmd[1]  = (3 << 1); /* Non-data */
499                 scsi_cmd[2]  = 0x20;     /* cc but no off.line or data xfer */
500                 data_dir = DMA_NONE;
501         }
502
503         scsi_cmd[0] = ATA_16;
504
505         scsi_cmd[4] = args[2];
506         if (args[0] == ATA_CMD_SMART) { /* hack -- ide driver does this too */
507                 scsi_cmd[6]  = args[3];
508                 scsi_cmd[8]  = args[1];
509                 scsi_cmd[10] = 0x4f;
510                 scsi_cmd[12] = 0xc2;
511         } else {
512                 scsi_cmd[6]  = args[1];
513         }
514         scsi_cmd[14] = args[0];
515
516         /* Good values for timeout and retries?  Values below
517            from scsi_ioctl_send_command() for default case... */
518         cmd_result = scsi_execute(scsidev, scsi_cmd, data_dir, argbuf, argsize,
519                                   sensebuf, (10*HZ), 5, 0);
520
521         if (driver_byte(cmd_result) == DRIVER_SENSE) {/* sense data available */
522                 u8 *desc = sensebuf + 8;
523                 cmd_result &= ~(0xFF<<24); /* DRIVER_SENSE is not an error */
524
525                 /* If we set cc then ATA pass-through will cause a
526                  * check condition even if no error. Filter that. */
527                 if (cmd_result & SAM_STAT_CHECK_CONDITION) {
528                         struct scsi_sense_hdr sshdr;
529                         scsi_normalize_sense(sensebuf, SCSI_SENSE_BUFFERSIZE,
530                                              &sshdr);
531                         if (sshdr.sense_key == 0 &&
532                             sshdr.asc == 0 && sshdr.ascq == 0)
533                                 cmd_result &= ~SAM_STAT_CHECK_CONDITION;
534                 }
535
536                 /* Send userspace a few ATA registers (same as drivers/ide) */
537                 if (sensebuf[0] == 0x72 &&      /* format is "descriptor" */
538                     desc[0] == 0x09) {          /* code is "ATA Descriptor" */
539                         args[0] = desc[13];     /* status */
540                         args[1] = desc[3];      /* error */
541                         args[2] = desc[5];      /* sector count (0:7) */
542                         if (copy_to_user(arg, args, sizeof(args)))
543                                 rc = -EFAULT;
544                 }
545         }
546
547
548         if (cmd_result) {
549                 rc = -EIO;
550                 goto error;
551         }
552
553         if ((argbuf)
554          && copy_to_user(arg + sizeof(args), argbuf, argsize))
555                 rc = -EFAULT;
556 error:
557         kfree(sensebuf);
558         kfree(argbuf);
559         return rc;
560 }
561
562 /**
563  *      ata_task_ioctl - Handler for HDIO_DRIVE_TASK ioctl
564  *      @scsidev: Device to which we are issuing command
565  *      @arg: User provided data for issuing command
566  *
567  *      LOCKING:
568  *      Defined by the SCSI layer.  We don't really care.
569  *
570  *      RETURNS:
571  *      Zero on success, negative errno on error.
572  */
573 int ata_task_ioctl(struct scsi_device *scsidev, void __user *arg)
574 {
575         int rc = 0;
576         u8 scsi_cmd[MAX_COMMAND_SIZE];
577         u8 args[7], *sensebuf = NULL;
578         int cmd_result;
579
580         if (arg == NULL)
581                 return -EINVAL;
582
583         if (copy_from_user(args, arg, sizeof(args)))
584                 return -EFAULT;
585
586         sensebuf = kzalloc(SCSI_SENSE_BUFFERSIZE, GFP_NOIO);
587         if (!sensebuf)
588                 return -ENOMEM;
589
590         memset(scsi_cmd, 0, sizeof(scsi_cmd));
591         scsi_cmd[0]  = ATA_16;
592         scsi_cmd[1]  = (3 << 1); /* Non-data */
593         scsi_cmd[2]  = 0x20;     /* cc but no off.line or data xfer */
594         scsi_cmd[4]  = args[1];
595         scsi_cmd[6]  = args[2];
596         scsi_cmd[8]  = args[3];
597         scsi_cmd[10] = args[4];
598         scsi_cmd[12] = args[5];
599         scsi_cmd[13] = args[6] & 0x4f;
600         scsi_cmd[14] = args[0];
601
602         /* Good values for timeout and retries?  Values below
603            from scsi_ioctl_send_command() for default case... */
604         cmd_result = scsi_execute(scsidev, scsi_cmd, DMA_NONE, NULL, 0,
605                                 sensebuf, (10*HZ), 5, 0);
606
607         if (driver_byte(cmd_result) == DRIVER_SENSE) {/* sense data available */
608                 u8 *desc = sensebuf + 8;
609                 cmd_result &= ~(0xFF<<24); /* DRIVER_SENSE is not an error */
610
611                 /* If we set cc then ATA pass-through will cause a
612                  * check condition even if no error. Filter that. */
613                 if (cmd_result & SAM_STAT_CHECK_CONDITION) {
614                         struct scsi_sense_hdr sshdr;
615                         scsi_normalize_sense(sensebuf, SCSI_SENSE_BUFFERSIZE,
616                                                 &sshdr);
617                         if (sshdr.sense_key == 0 &&
618                                 sshdr.asc == 0 && sshdr.ascq == 0)
619                                 cmd_result &= ~SAM_STAT_CHECK_CONDITION;
620                 }
621
622                 /* Send userspace ATA registers */
623                 if (sensebuf[0] == 0x72 &&      /* format is "descriptor" */
624                                 desc[0] == 0x09) {/* code is "ATA Descriptor" */
625                         args[0] = desc[13];     /* status */
626                         args[1] = desc[3];      /* error */
627                         args[2] = desc[5];      /* sector count (0:7) */
628                         args[3] = desc[7];      /* lbal */
629                         args[4] = desc[9];      /* lbam */
630                         args[5] = desc[11];     /* lbah */
631                         args[6] = desc[12];     /* select */
632                         if (copy_to_user(arg, args, sizeof(args)))
633                                 rc = -EFAULT;
634                 }
635         }
636
637         if (cmd_result) {
638                 rc = -EIO;
639                 goto error;
640         }
641
642  error:
643         kfree(sensebuf);
644         return rc;
645 }
646
647 int ata_scsi_ioctl(struct scsi_device *scsidev, int cmd, void __user *arg)
648 {
649         int val = -EINVAL, rc = -EINVAL;
650
651         switch (cmd) {
652         case ATA_IOC_GET_IO32:
653                 val = 0;
654                 if (copy_to_user(arg, &val, 1))
655                         return -EFAULT;
656                 return 0;
657
658         case ATA_IOC_SET_IO32:
659                 val = (unsigned long) arg;
660                 if (val != 0)
661                         return -EINVAL;
662                 return 0;
663
664         case HDIO_GET_IDENTITY:
665                 return ata_get_identity(scsidev, arg);
666
667         case HDIO_DRIVE_CMD:
668                 if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
669                         return -EACCES;
670                 return ata_cmd_ioctl(scsidev, arg);
671
672         case HDIO_DRIVE_TASK:
673                 if (!capable(CAP_SYS_ADMIN) || !capable(CAP_SYS_RAWIO))
674                         return -EACCES;
675                 return ata_task_ioctl(scsidev, arg);
676
677         default:
678                 rc = -ENOTTY;
679                 break;
680         }
681
682         return rc;
683 }
684
685 /**
686  *      ata_scsi_qc_new - acquire new ata_queued_cmd reference
687  *      @dev: ATA device to which the new command is attached
688  *      @cmd: SCSI command that originated this ATA command
689  *      @done: SCSI command completion function
690  *
691  *      Obtain a reference to an unused ata_queued_cmd structure,
692  *      which is the basic libata structure representing a single
693  *      ATA command sent to the hardware.
694  *
695  *      If a command was available, fill in the SCSI-specific
696  *      portions of the structure with information on the
697  *      current command.
698  *
699  *      LOCKING:
700  *      spin_lock_irqsave(host lock)
701  *
702  *      RETURNS:
703  *      Command allocated, or %NULL if none available.
704  */
705 static struct ata_queued_cmd *ata_scsi_qc_new(struct ata_device *dev,
706                                               struct scsi_cmnd *cmd,
707                                               void (*done)(struct scsi_cmnd *))
708 {
709         struct ata_queued_cmd *qc;
710
711         if (cmd->request->tag != -1)
712                 qc = ata_qc_new_init(dev, cmd->request->tag);
713         else
714                 qc = ata_qc_new_init(dev, 0);
715
716         if (qc) {
717                 qc->scsicmd = cmd;
718                 qc->scsidone = done;
719
720                 qc->sg = scsi_sglist(cmd);
721                 qc->n_elem = scsi_sg_count(cmd);
722         } else {
723                 cmd->result = (DID_OK << 16) | (QUEUE_FULL << 1);
724                 done(cmd);
725         }
726
727         return qc;
728 }
729
730 static void ata_qc_set_pc_nbytes(struct ata_queued_cmd *qc)
731 {
732         struct scsi_cmnd *scmd = qc->scsicmd;
733
734         qc->extrabytes = scmd->request->extra_len;
735         qc->nbytes = scsi_bufflen(scmd) + qc->extrabytes;
736 }
737
738 /**
739  *      ata_dump_status - user friendly display of error info
740  *      @id: id of the port in question
741  *      @tf: ptr to filled out taskfile
742  *
743  *      Decode and dump the ATA error/status registers for the user so
744  *      that they have some idea what really happened at the non
745  *      make-believe layer.
746  *
747  *      LOCKING:
748  *      inherited from caller
749  */
750 static void ata_dump_status(unsigned id, struct ata_taskfile *tf)
751 {
752         u8 stat = tf->command, err = tf->feature;
753
754         printk(KERN_WARNING "ata%u: status=0x%02x { ", id, stat);
755         if (stat & ATA_BUSY) {
756                 printk("Busy }\n");     /* Data is not valid in this case */
757         } else {
758                 if (stat & 0x40)        printk("DriveReady ");
759                 if (stat & 0x20)        printk("DeviceFault ");
760                 if (stat & 0x10)        printk("SeekComplete ");
761                 if (stat & 0x08)        printk("DataRequest ");
762                 if (stat & 0x04)        printk("CorrectedError ");
763                 if (stat & 0x02)        printk("Index ");
764                 if (stat & 0x01)        printk("Error ");
765                 printk("}\n");
766
767                 if (err) {
768                         printk(KERN_WARNING "ata%u: error=0x%02x { ", id, err);
769                         if (err & 0x04)         printk("DriveStatusError ");
770                         if (err & 0x80) {
771                                 if (err & 0x04) printk("BadCRC ");
772                                 else            printk("Sector ");
773                         }
774                         if (err & 0x40)         printk("UncorrectableError ");
775                         if (err & 0x10)         printk("SectorIdNotFound ");
776                         if (err & 0x02)         printk("TrackZeroNotFound ");
777                         if (err & 0x01)         printk("AddrMarkNotFound ");
778                         printk("}\n");
779                 }
780         }
781 }
782
783 /**
784  *      ata_to_sense_error - convert ATA error to SCSI error
785  *      @id: ATA device number
786  *      @drv_stat: value contained in ATA status register
787  *      @drv_err: value contained in ATA error register
788  *      @sk: the sense key we'll fill out
789  *      @asc: the additional sense code we'll fill out
790  *      @ascq: the additional sense code qualifier we'll fill out
791  *      @verbose: be verbose
792  *
793  *      Converts an ATA error into a SCSI error.  Fill out pointers to
794  *      SK, ASC, and ASCQ bytes for later use in fixed or descriptor
795  *      format sense blocks.
796  *
797  *      LOCKING:
798  *      spin_lock_irqsave(host lock)
799  */
800 static void ata_to_sense_error(unsigned id, u8 drv_stat, u8 drv_err, u8 *sk,
801                                u8 *asc, u8 *ascq, int verbose)
802 {
803         int i;
804
805         /* Based on the 3ware driver translation table */
806         static const unsigned char sense_table[][4] = {
807                 /* BBD|ECC|ID|MAR */
808                 {0xd1,          ABORTED_COMMAND, 0x00, 0x00},   // Device busy                  Aborted command
809                 /* BBD|ECC|ID */
810                 {0xd0,          ABORTED_COMMAND, 0x00, 0x00},   // Device busy                  Aborted command
811                 /* ECC|MC|MARK */
812                 {0x61,          HARDWARE_ERROR, 0x00, 0x00},    // Device fault                 Hardware error
813                 /* ICRC|ABRT */         /* NB: ICRC & !ABRT is BBD */
814                 {0x84,          ABORTED_COMMAND, 0x47, 0x00},   // Data CRC error               SCSI parity error
815                 /* MC|ID|ABRT|TRK0|MARK */
816                 {0x37,          NOT_READY, 0x04, 0x00},         // Unit offline                 Not ready
817                 /* MCR|MARK */
818                 {0x09,          NOT_READY, 0x04, 0x00},         // Unrecovered disk error       Not ready
819                 /*  Bad address mark */
820                 {0x01,          MEDIUM_ERROR, 0x13, 0x00},      // Address mark not found       Address mark not found for data field
821                 /* TRK0 */
822                 {0x02,          HARDWARE_ERROR, 0x00, 0x00},    // Track 0 not found              Hardware error
823                 /* Abort & !ICRC */
824                 {0x04,          ABORTED_COMMAND, 0x00, 0x00},   // Aborted command              Aborted command
825                 /* Media change request */
826                 {0x08,          NOT_READY, 0x04, 0x00},         // Media change request   FIXME: faking offline
827                 /* SRV */
828                 {0x10,          ABORTED_COMMAND, 0x14, 0x00},   // ID not found                 Recorded entity not found
829                 /* Media change */
830                 {0x08,          NOT_READY, 0x04, 0x00},         // Media change           FIXME: faking offline
831                 /* ECC */
832                 {0x40,          MEDIUM_ERROR, 0x11, 0x04},      // Uncorrectable ECC error      Unrecovered read error
833                 /* BBD - block marked bad */
834                 {0x80,          MEDIUM_ERROR, 0x11, 0x04},      // Block marked bad               Medium error, unrecovered read error
835                 {0xFF, 0xFF, 0xFF, 0xFF}, // END mark
836         };
837         static const unsigned char stat_table[][4] = {
838                 /* Must be first because BUSY means no other bits valid */
839                 {0x80,          ABORTED_COMMAND, 0x47, 0x00},   // Busy, fake parity for now
840                 {0x20,          HARDWARE_ERROR,  0x00, 0x00},   // Device fault
841                 {0x08,          ABORTED_COMMAND, 0x47, 0x00},   // Timed out in xfer, fake parity for now
842                 {0x04,          RECOVERED_ERROR, 0x11, 0x00},   // Recovered ECC error    Medium error, recovered
843                 {0xFF, 0xFF, 0xFF, 0xFF}, // END mark
844         };
845
846         /*
847          *      Is this an error we can process/parse
848          */
849         if (drv_stat & ATA_BUSY) {
850                 drv_err = 0;    /* Ignore the err bits, they're invalid */
851         }
852
853         if (drv_err) {
854                 /* Look for drv_err */
855                 for (i = 0; sense_table[i][0] != 0xFF; i++) {
856                         /* Look for best matches first */
857                         if ((sense_table[i][0] & drv_err) ==
858                             sense_table[i][0]) {
859                                 *sk = sense_table[i][1];
860                                 *asc = sense_table[i][2];
861                                 *ascq = sense_table[i][3];
862                                 goto translate_done;
863                         }
864                 }
865                 /* No immediate match */
866                 if (verbose)
867                         printk(KERN_WARNING "ata%u: no sense translation for "
868                                "error 0x%02x\n", id, drv_err);
869         }
870
871         /* Fall back to interpreting status bits */
872         for (i = 0; stat_table[i][0] != 0xFF; i++) {
873                 if (stat_table[i][0] & drv_stat) {
874                         *sk = stat_table[i][1];
875                         *asc = stat_table[i][2];
876                         *ascq = stat_table[i][3];
877                         goto translate_done;
878                 }
879         }
880         /* No error?  Undecoded? */
881         if (verbose)
882                 printk(KERN_WARNING "ata%u: no sense translation for "
883                        "status: 0x%02x\n", id, drv_stat);
884
885         /* We need a sensible error return here, which is tricky, and one
886            that won't cause people to do things like return a disk wrongly */
887         *sk = ABORTED_COMMAND;
888         *asc = 0x00;
889         *ascq = 0x00;
890
891  translate_done:
892         if (verbose)
893                 printk(KERN_ERR "ata%u: translated ATA stat/err 0x%02x/%02x "
894                        "to SCSI SK/ASC/ASCQ 0x%x/%02x/%02x\n",
895                        id, drv_stat, drv_err, *sk, *asc, *ascq);
896         return;
897 }
898
899 /*
900  *      ata_gen_passthru_sense - Generate check condition sense block.
901  *      @qc: Command that completed.
902  *
903  *      This function is specific to the ATA descriptor format sense
904  *      block specified for the ATA pass through commands.  Regardless
905  *      of whether the command errored or not, return a sense
906  *      block. Copy all controller registers into the sense
907  *      block. Clear sense key, ASC & ASCQ if there is no error.
908  *
909  *      LOCKING:
910  *      None.
911  */
912 static void ata_gen_passthru_sense(struct ata_queued_cmd *qc)
913 {
914         struct scsi_cmnd *cmd = qc->scsicmd;
915         struct ata_taskfile *tf = &qc->result_tf;
916         unsigned char *sb = cmd->sense_buffer;
917         unsigned char *desc = sb + 8;
918         int verbose = qc->ap->ops->error_handler == NULL;
919
920         memset(sb, 0, SCSI_SENSE_BUFFERSIZE);
921
922         cmd->result = (DRIVER_SENSE << 24) | SAM_STAT_CHECK_CONDITION;
923
924         /*
925          * Use ata_to_sense_error() to map status register bits
926          * onto sense key, asc & ascq.
927          */
928         if (qc->err_mask ||
929             tf->command & (ATA_BUSY | ATA_DF | ATA_ERR | ATA_DRQ)) {
930                 ata_to_sense_error(qc->ap->print_id, tf->command, tf->feature,
931                                    &sb[1], &sb[2], &sb[3], verbose);
932                 sb[1] &= 0x0f;
933         }
934
935         /*
936          * Sense data is current and format is descriptor.
937          */
938         sb[0] = 0x72;
939
940         desc[0] = 0x09;
941
942         /* set length of additional sense data */
943         sb[7] = 14;
944         desc[1] = 12;
945
946         /*
947          * Copy registers into sense buffer.
948          */
949         desc[2] = 0x00;
950         desc[3] = tf->feature;  /* == error reg */
951         desc[5] = tf->nsect;
952         desc[7] = tf->lbal;
953         desc[9] = tf->lbam;
954         desc[11] = tf->lbah;
955         desc[12] = tf->device;
956         desc[13] = tf->command; /* == status reg */
957
958         /*
959          * Fill in Extend bit, and the high order bytes
960          * if applicable.
961          */
962         if (tf->flags & ATA_TFLAG_LBA48) {
963                 desc[2] |= 0x01;
964                 desc[4] = tf->hob_nsect;
965                 desc[6] = tf->hob_lbal;
966                 desc[8] = tf->hob_lbam;
967                 desc[10] = tf->hob_lbah;
968         }
969 }
970
971 /**
972  *      ata_gen_ata_sense - generate a SCSI fixed sense block
973  *      @qc: Command that we are erroring out
974  *
975  *      Generate sense block for a failed ATA command @qc.  Descriptor
976  *      format is used to accomodate LBA48 block address.
977  *
978  *      LOCKING:
979  *      None.
980  */
981 static void ata_gen_ata_sense(struct ata_queued_cmd *qc)
982 {
983         struct ata_device *dev = qc->dev;
984         struct scsi_cmnd *cmd = qc->scsicmd;
985         struct ata_taskfile *tf = &qc->result_tf;
986         unsigned char *sb = cmd->sense_buffer;
987         unsigned char *desc = sb + 8;
988         int verbose = qc->ap->ops->error_handler == NULL;
989         u64 block;
990
991         memset(sb, 0, SCSI_SENSE_BUFFERSIZE);
992
993         cmd->result = (DRIVER_SENSE << 24) | SAM_STAT_CHECK_CONDITION;
994
995         /* sense data is current and format is descriptor */
996         sb[0] = 0x72;
997
998         /* Use ata_to_sense_error() to map status register bits
999          * onto sense key, asc & ascq.
1000          */
1001         if (qc->err_mask ||
1002             tf->command & (ATA_BUSY | ATA_DF | ATA_ERR | ATA_DRQ)) {
1003                 ata_to_sense_error(qc->ap->print_id, tf->command, tf->feature,
1004                                    &sb[1], &sb[2], &sb[3], verbose);
1005                 sb[1] &= 0x0f;
1006         }
1007
1008         block = ata_tf_read_block(&qc->result_tf, dev);
1009
1010         /* information sense data descriptor */
1011         sb[7] = 12;
1012         desc[0] = 0x00;
1013         desc[1] = 10;
1014
1015         desc[2] |= 0x80;        /* valid */
1016         desc[6] = block >> 40;
1017         desc[7] = block >> 32;
1018         desc[8] = block >> 24;
1019         desc[9] = block >> 16;
1020         desc[10] = block >> 8;
1021         desc[11] = block;
1022 }
1023
1024 static void ata_scsi_sdev_config(struct scsi_device *sdev)
1025 {
1026         sdev->use_10_for_rw = 1;
1027         sdev->use_10_for_ms = 1;
1028
1029         /* Schedule policy is determined by ->qc_defer() callback and
1030          * it needs to see every deferred qc.  Set dev_blocked to 1 to
1031          * prevent SCSI midlayer from automatically deferring
1032          * requests.
1033          */
1034         sdev->max_device_blocked = 1;
1035 }
1036
1037 /**
1038  *      atapi_drain_needed - Check whether data transfer may overflow
1039  *      @rq: request to be checked
1040  *
1041  *      ATAPI commands which transfer variable length data to host
1042  *      might overflow due to application error or hardare bug.  This
1043  *      function checks whether overflow should be drained and ignored
1044  *      for @request.
1045  *
1046  *      LOCKING:
1047  *      None.
1048  *
1049  *      RETURNS:
1050  *      1 if ; otherwise, 0.
1051  */
1052 static int atapi_drain_needed(struct request *rq)
1053 {
1054         if (likely(!blk_pc_request(rq)))
1055                 return 0;
1056
1057         if (!rq->data_len || (rq->cmd_flags & REQ_RW))
1058                 return 0;
1059
1060         return atapi_cmd_type(rq->cmd[0]) == ATAPI_MISC;
1061 }
1062
1063 static int ata_scsi_dev_config(struct scsi_device *sdev,
1064                                struct ata_device *dev)
1065 {
1066         if (!ata_id_has_unload(dev->id))
1067                 dev->flags |= ATA_DFLAG_NO_UNLOAD;
1068
1069         /* configure max sectors */
1070         blk_queue_max_sectors(sdev->request_queue, dev->max_sectors);
1071
1072         if (dev->class == ATA_DEV_ATAPI) {
1073                 struct request_queue *q = sdev->request_queue;
1074                 void *buf;
1075
1076                 /* set the min alignment and padding */
1077                 blk_queue_update_dma_alignment(sdev->request_queue,
1078                                                ATA_DMA_PAD_SZ - 1);
1079                 blk_queue_update_dma_pad(sdev->request_queue,
1080                                          ATA_DMA_PAD_SZ - 1);
1081
1082                 /* configure draining */
1083                 buf = kmalloc(ATAPI_MAX_DRAIN, q->bounce_gfp | GFP_KERNEL);
1084                 if (!buf) {
1085                         ata_dev_printk(dev, KERN_ERR,
1086                                        "drain buffer allocation failed\n");
1087                         return -ENOMEM;
1088                 }
1089
1090                 blk_queue_dma_drain(q, atapi_drain_needed, buf, ATAPI_MAX_DRAIN);
1091         } else {
1092                 if (ata_id_is_ssd(dev->id))
1093                         queue_flag_set_unlocked(QUEUE_FLAG_NONROT,
1094                                                 sdev->request_queue);
1095
1096                 /* ATA devices must be sector aligned */
1097                 blk_queue_update_dma_alignment(sdev->request_queue,
1098                                                ATA_SECT_SIZE - 1);
1099                 sdev->manage_start_stop = 1;
1100         }
1101
1102         if (dev->flags & ATA_DFLAG_AN)
1103                 set_bit(SDEV_EVT_MEDIA_CHANGE, sdev->supported_events);
1104
1105         if (dev->flags & ATA_DFLAG_NCQ) {
1106                 int depth;
1107
1108                 depth = min(sdev->host->can_queue, ata_id_queue_depth(dev->id));
1109                 depth = min(ATA_MAX_QUEUE - 1, depth);
1110                 scsi_set_tag_type(sdev, MSG_SIMPLE_TAG);
1111                 scsi_activate_tcq(sdev, depth);
1112         }
1113
1114         return 0;
1115 }
1116
1117 /**
1118  *      ata_scsi_slave_config - Set SCSI device attributes
1119  *      @sdev: SCSI device to examine
1120  *
1121  *      This is called before we actually start reading
1122  *      and writing to the device, to configure certain
1123  *      SCSI mid-layer behaviors.
1124  *
1125  *      LOCKING:
1126  *      Defined by SCSI layer.  We don't really care.
1127  */
1128
1129 int ata_scsi_slave_config(struct scsi_device *sdev)
1130 {
1131         struct ata_port *ap = ata_shost_to_port(sdev->host);
1132         struct ata_device *dev = __ata_scsi_find_dev(ap, sdev);
1133         int rc = 0;
1134
1135         ata_scsi_sdev_config(sdev);
1136
1137         if (dev)
1138                 rc = ata_scsi_dev_config(sdev, dev);
1139
1140         return rc;
1141 }
1142
1143 /**
1144  *      ata_scsi_slave_destroy - SCSI device is about to be destroyed
1145  *      @sdev: SCSI device to be destroyed
1146  *
1147  *      @sdev is about to be destroyed for hot/warm unplugging.  If
1148  *      this unplugging was initiated by libata as indicated by NULL
1149  *      dev->sdev, this function doesn't have to do anything.
1150  *      Otherwise, SCSI layer initiated warm-unplug is in progress.
1151  *      Clear dev->sdev, schedule the device for ATA detach and invoke
1152  *      EH.
1153  *
1154  *      LOCKING:
1155  *      Defined by SCSI layer.  We don't really care.
1156  */
1157 void ata_scsi_slave_destroy(struct scsi_device *sdev)
1158 {
1159         struct ata_port *ap = ata_shost_to_port(sdev->host);
1160         struct request_queue *q = sdev->request_queue;
1161         unsigned long flags;
1162         struct ata_device *dev;
1163
1164         if (!ap->ops->error_handler)
1165                 return;
1166
1167         spin_lock_irqsave(ap->lock, flags);
1168         dev = __ata_scsi_find_dev(ap, sdev);
1169         if (dev && dev->sdev) {
1170                 /* SCSI device already in CANCEL state, no need to offline it */
1171                 dev->sdev = NULL;
1172                 dev->flags |= ATA_DFLAG_DETACH;
1173                 ata_port_schedule_eh(ap);
1174         }
1175         spin_unlock_irqrestore(ap->lock, flags);
1176
1177         kfree(q->dma_drain_buffer);
1178         q->dma_drain_buffer = NULL;
1179         q->dma_drain_size = 0;
1180 }
1181
1182 /**
1183  *      ata_scsi_change_queue_depth - SCSI callback for queue depth config
1184  *      @sdev: SCSI device to configure queue depth for
1185  *      @queue_depth: new queue depth
1186  *
1187  *      This is libata standard hostt->change_queue_depth callback.
1188  *      SCSI will call into this callback when user tries to set queue
1189  *      depth via sysfs.
1190  *
1191  *      LOCKING:
1192  *      SCSI layer (we don't care)
1193  *
1194  *      RETURNS:
1195  *      Newly configured queue depth.
1196  */
1197 int ata_scsi_change_queue_depth(struct scsi_device *sdev, int queue_depth)
1198 {
1199         struct ata_port *ap = ata_shost_to_port(sdev->host);
1200         struct ata_device *dev;
1201         unsigned long flags;
1202
1203         if (queue_depth < 1 || queue_depth == sdev->queue_depth)
1204                 return sdev->queue_depth;
1205
1206         dev = ata_scsi_find_dev(ap, sdev);
1207         if (!dev || !ata_dev_enabled(dev))
1208                 return sdev->queue_depth;
1209
1210         /* NCQ enabled? */
1211         spin_lock_irqsave(ap->lock, flags);
1212         dev->flags &= ~ATA_DFLAG_NCQ_OFF;
1213         if (queue_depth == 1 || !ata_ncq_enabled(dev)) {
1214                 dev->flags |= ATA_DFLAG_NCQ_OFF;
1215                 queue_depth = 1;
1216         }
1217         spin_unlock_irqrestore(ap->lock, flags);
1218
1219         /* limit and apply queue depth */
1220         queue_depth = min(queue_depth, sdev->host->can_queue);
1221         queue_depth = min(queue_depth, ata_id_queue_depth(dev->id));
1222         queue_depth = min(queue_depth, ATA_MAX_QUEUE - 1);
1223
1224         if (sdev->queue_depth == queue_depth)
1225                 return -EINVAL;
1226
1227         scsi_adjust_queue_depth(sdev, MSG_SIMPLE_TAG, queue_depth);
1228         return queue_depth;
1229 }
1230
1231 /* XXX: for spindown warning */
1232 static void ata_delayed_done_timerfn(unsigned long arg)
1233 {
1234         struct scsi_cmnd *scmd = (void *)arg;
1235
1236         scmd->scsi_done(scmd);
1237 }
1238
1239 /* XXX: for spindown warning */
1240 static void ata_delayed_done(struct scsi_cmnd *scmd)
1241 {
1242         static struct timer_list timer;
1243
1244         setup_timer(&timer, ata_delayed_done_timerfn, (unsigned long)scmd);
1245         mod_timer(&timer, jiffies + 5 * HZ);
1246 }
1247
1248 /**
1249  *      ata_scsi_start_stop_xlat - Translate SCSI START STOP UNIT command
1250  *      @qc: Storage for translated ATA taskfile
1251  *
1252  *      Sets up an ATA taskfile to issue STANDBY (to stop) or READ VERIFY
1253  *      (to start). Perhaps these commands should be preceded by
1254  *      CHECK POWER MODE to see what power mode the device is already in.
1255  *      [See SAT revision 5 at www.t10.org]
1256  *
1257  *      LOCKING:
1258  *      spin_lock_irqsave(host lock)
1259  *
1260  *      RETURNS:
1261  *      Zero on success, non-zero on error.
1262  */
1263 static unsigned int ata_scsi_start_stop_xlat(struct ata_queued_cmd *qc)
1264 {
1265         struct scsi_cmnd *scmd = qc->scsicmd;
1266         struct ata_taskfile *tf = &qc->tf;
1267         const u8 *cdb = scmd->cmnd;
1268
1269         if (scmd->cmd_len < 5)
1270                 goto invalid_fld;
1271
1272         tf->flags |= ATA_TFLAG_DEVICE | ATA_TFLAG_ISADDR;
1273         tf->protocol = ATA_PROT_NODATA;
1274         if (cdb[1] & 0x1) {
1275                 ;       /* ignore IMMED bit, violates sat-r05 */
1276         }
1277         if (cdb[4] & 0x2)
1278                 goto invalid_fld;       /* LOEJ bit set not supported */
1279         if (((cdb[4] >> 4) & 0xf) != 0)
1280                 goto invalid_fld;       /* power conditions not supported */
1281
1282         if (cdb[4] & 0x1) {
1283                 tf->nsect = 1;  /* 1 sector, lba=0 */
1284
1285                 if (qc->dev->flags & ATA_DFLAG_LBA) {
1286                         tf->flags |= ATA_TFLAG_LBA;
1287
1288                         tf->lbah = 0x0;
1289                         tf->lbam = 0x0;
1290                         tf->lbal = 0x0;
1291                         tf->device |= ATA_LBA;
1292                 } else {
1293                         /* CHS */
1294                         tf->lbal = 0x1; /* sect */
1295                         tf->lbam = 0x0; /* cyl low */
1296                         tf->lbah = 0x0; /* cyl high */
1297                 }
1298
1299                 tf->command = ATA_CMD_VERIFY;   /* READ VERIFY */
1300         } else {
1301                 /* XXX: This is for backward compatibility, will be
1302                  * removed.  Read Documentation/feature-removal-schedule.txt
1303                  * for more info.
1304                  */
1305                 if ((qc->dev->flags & ATA_DFLAG_SPUNDOWN) &&
1306                     (system_state == SYSTEM_HALT ||
1307                      system_state == SYSTEM_POWER_OFF)) {
1308                         static unsigned long warned;
1309
1310                         if (!test_and_set_bit(0, &warned)) {
1311                                 ata_dev_printk(qc->dev, KERN_WARNING,
1312                                         "DISK MIGHT NOT BE SPUN DOWN PROPERLY. "
1313                                         "UPDATE SHUTDOWN UTILITY\n");
1314                                 ata_dev_printk(qc->dev, KERN_WARNING,
1315                                         "For more info, visit "
1316                                         "http://linux-ata.org/shutdown.html\n");
1317
1318                                 /* ->scsi_done is not used, use it for
1319                                  * delayed completion.
1320                                  */
1321                                 scmd->scsi_done = qc->scsidone;
1322                                 qc->scsidone = ata_delayed_done;
1323                         }
1324                         scmd->result = SAM_STAT_GOOD;
1325                         return 1;
1326                 }
1327
1328                 /* Issue ATA STANDBY IMMEDIATE command */
1329                 tf->command = ATA_CMD_STANDBYNOW1;
1330         }
1331
1332         /*
1333          * Standby and Idle condition timers could be implemented but that
1334          * would require libata to implement the Power condition mode page
1335          * and allow the user to change it. Changing mode pages requires
1336          * MODE SELECT to be implemented.
1337          */
1338
1339         return 0;
1340
1341 invalid_fld:
1342         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x24, 0x0);
1343         /* "Invalid field in cbd" */
1344         return 1;
1345 }
1346
1347
1348 /**
1349  *      ata_scsi_flush_xlat - Translate SCSI SYNCHRONIZE CACHE command
1350  *      @qc: Storage for translated ATA taskfile
1351  *
1352  *      Sets up an ATA taskfile to issue FLUSH CACHE or
1353  *      FLUSH CACHE EXT.
1354  *
1355  *      LOCKING:
1356  *      spin_lock_irqsave(host lock)
1357  *
1358  *      RETURNS:
1359  *      Zero on success, non-zero on error.
1360  */
1361 static unsigned int ata_scsi_flush_xlat(struct ata_queued_cmd *qc)
1362 {
1363         struct ata_taskfile *tf = &qc->tf;
1364
1365         tf->flags |= ATA_TFLAG_DEVICE;
1366         tf->protocol = ATA_PROT_NODATA;
1367
1368         if (qc->dev->flags & ATA_DFLAG_FLUSH_EXT)
1369                 tf->command = ATA_CMD_FLUSH_EXT;
1370         else
1371                 tf->command = ATA_CMD_FLUSH;
1372
1373         /* flush is critical for IO integrity, consider it an IO command */
1374         qc->flags |= ATA_QCFLAG_IO;
1375
1376         return 0;
1377 }
1378
1379 /**
1380  *      scsi_6_lba_len - Get LBA and transfer length
1381  *      @cdb: SCSI command to translate
1382  *
1383  *      Calculate LBA and transfer length for 6-byte commands.
1384  *
1385  *      RETURNS:
1386  *      @plba: the LBA
1387  *      @plen: the transfer length
1388  */
1389 static void scsi_6_lba_len(const u8 *cdb, u64 *plba, u32 *plen)
1390 {
1391         u64 lba = 0;
1392         u32 len;
1393
1394         VPRINTK("six-byte command\n");
1395
1396         lba |= ((u64)(cdb[1] & 0x1f)) << 16;
1397         lba |= ((u64)cdb[2]) << 8;
1398         lba |= ((u64)cdb[3]);
1399
1400         len = cdb[4];
1401
1402         *plba = lba;
1403         *plen = len;
1404 }
1405
1406 /**
1407  *      scsi_10_lba_len - Get LBA and transfer length
1408  *      @cdb: SCSI command to translate
1409  *
1410  *      Calculate LBA and transfer length for 10-byte commands.
1411  *
1412  *      RETURNS:
1413  *      @plba: the LBA
1414  *      @plen: the transfer length
1415  */
1416 static void scsi_10_lba_len(const u8 *cdb, u64 *plba, u32 *plen)
1417 {
1418         u64 lba = 0;
1419         u32 len = 0;
1420
1421         VPRINTK("ten-byte command\n");
1422
1423         lba |= ((u64)cdb[2]) << 24;
1424         lba |= ((u64)cdb[3]) << 16;
1425         lba |= ((u64)cdb[4]) << 8;
1426         lba |= ((u64)cdb[5]);
1427
1428         len |= ((u32)cdb[7]) << 8;
1429         len |= ((u32)cdb[8]);
1430
1431         *plba = lba;
1432         *plen = len;
1433 }
1434
1435 /**
1436  *      scsi_16_lba_len - Get LBA and transfer length
1437  *      @cdb: SCSI command to translate
1438  *
1439  *      Calculate LBA and transfer length for 16-byte commands.
1440  *
1441  *      RETURNS:
1442  *      @plba: the LBA
1443  *      @plen: the transfer length
1444  */
1445 static void scsi_16_lba_len(const u8 *cdb, u64 *plba, u32 *plen)
1446 {
1447         u64 lba = 0;
1448         u32 len = 0;
1449
1450         VPRINTK("sixteen-byte command\n");
1451
1452         lba |= ((u64)cdb[2]) << 56;
1453         lba |= ((u64)cdb[3]) << 48;
1454         lba |= ((u64)cdb[4]) << 40;
1455         lba |= ((u64)cdb[5]) << 32;
1456         lba |= ((u64)cdb[6]) << 24;
1457         lba |= ((u64)cdb[7]) << 16;
1458         lba |= ((u64)cdb[8]) << 8;
1459         lba |= ((u64)cdb[9]);
1460
1461         len |= ((u32)cdb[10]) << 24;
1462         len |= ((u32)cdb[11]) << 16;
1463         len |= ((u32)cdb[12]) << 8;
1464         len |= ((u32)cdb[13]);
1465
1466         *plba = lba;
1467         *plen = len;
1468 }
1469
1470 /**
1471  *      ata_scsi_verify_xlat - Translate SCSI VERIFY command into an ATA one
1472  *      @qc: Storage for translated ATA taskfile
1473  *
1474  *      Converts SCSI VERIFY command to an ATA READ VERIFY command.
1475  *
1476  *      LOCKING:
1477  *      spin_lock_irqsave(host lock)
1478  *
1479  *      RETURNS:
1480  *      Zero on success, non-zero on error.
1481  */
1482 static unsigned int ata_scsi_verify_xlat(struct ata_queued_cmd *qc)
1483 {
1484         struct scsi_cmnd *scmd = qc->scsicmd;
1485         struct ata_taskfile *tf = &qc->tf;
1486         struct ata_device *dev = qc->dev;
1487         u64 dev_sectors = qc->dev->n_sectors;
1488         const u8 *cdb = scmd->cmnd;
1489         u64 block;
1490         u32 n_block;
1491
1492         tf->flags |= ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE;
1493         tf->protocol = ATA_PROT_NODATA;
1494
1495         if (cdb[0] == VERIFY) {
1496                 if (scmd->cmd_len < 10)
1497                         goto invalid_fld;
1498                 scsi_10_lba_len(cdb, &block, &n_block);
1499         } else if (cdb[0] == VERIFY_16) {
1500                 if (scmd->cmd_len < 16)
1501                         goto invalid_fld;
1502                 scsi_16_lba_len(cdb, &block, &n_block);
1503         } else
1504                 goto invalid_fld;
1505
1506         if (!n_block)
1507                 goto nothing_to_do;
1508         if (block >= dev_sectors)
1509                 goto out_of_range;
1510         if ((block + n_block) > dev_sectors)
1511                 goto out_of_range;
1512
1513         if (dev->flags & ATA_DFLAG_LBA) {
1514                 tf->flags |= ATA_TFLAG_LBA;
1515
1516                 if (lba_28_ok(block, n_block)) {
1517                         /* use LBA28 */
1518                         tf->command = ATA_CMD_VERIFY;
1519                         tf->device |= (block >> 24) & 0xf;
1520                 } else if (lba_48_ok(block, n_block)) {
1521                         if (!(dev->flags & ATA_DFLAG_LBA48))
1522                                 goto out_of_range;
1523
1524                         /* use LBA48 */
1525                         tf->flags |= ATA_TFLAG_LBA48;
1526                         tf->command = ATA_CMD_VERIFY_EXT;
1527
1528                         tf->hob_nsect = (n_block >> 8) & 0xff;
1529
1530                         tf->hob_lbah = (block >> 40) & 0xff;
1531                         tf->hob_lbam = (block >> 32) & 0xff;
1532                         tf->hob_lbal = (block >> 24) & 0xff;
1533                 } else
1534                         /* request too large even for LBA48 */
1535                         goto out_of_range;
1536
1537                 tf->nsect = n_block & 0xff;
1538
1539                 tf->lbah = (block >> 16) & 0xff;
1540                 tf->lbam = (block >> 8) & 0xff;
1541                 tf->lbal = block & 0xff;
1542
1543                 tf->device |= ATA_LBA;
1544         } else {
1545                 /* CHS */
1546                 u32 sect, head, cyl, track;
1547
1548                 if (!lba_28_ok(block, n_block))
1549                         goto out_of_range;
1550
1551                 /* Convert LBA to CHS */
1552                 track = (u32)block / dev->sectors;
1553                 cyl   = track / dev->heads;
1554                 head  = track % dev->heads;
1555                 sect  = (u32)block % dev->sectors + 1;
1556
1557                 DPRINTK("block %u track %u cyl %u head %u sect %u\n",
1558                         (u32)block, track, cyl, head, sect);
1559
1560                 /* Check whether the converted CHS can fit.
1561                    Cylinder: 0-65535
1562                    Head: 0-15
1563                    Sector: 1-255*/
1564                 if ((cyl >> 16) || (head >> 4) || (sect >> 8) || (!sect))
1565                         goto out_of_range;
1566
1567                 tf->command = ATA_CMD_VERIFY;
1568                 tf->nsect = n_block & 0xff; /* Sector count 0 means 256 sectors */
1569                 tf->lbal = sect;
1570                 tf->lbam = cyl;
1571                 tf->lbah = cyl >> 8;
1572                 tf->device |= head;
1573         }
1574
1575         return 0;
1576
1577 invalid_fld:
1578         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x24, 0x0);
1579         /* "Invalid field in cbd" */
1580         return 1;
1581
1582 out_of_range:
1583         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x21, 0x0);
1584         /* "Logical Block Address out of range" */
1585         return 1;
1586
1587 nothing_to_do:
1588         scmd->result = SAM_STAT_GOOD;
1589         return 1;
1590 }
1591
1592 /**
1593  *      ata_scsi_rw_xlat - Translate SCSI r/w command into an ATA one
1594  *      @qc: Storage for translated ATA taskfile
1595  *
1596  *      Converts any of six SCSI read/write commands into the
1597  *      ATA counterpart, including starting sector (LBA),
1598  *      sector count, and taking into account the device's LBA48
1599  *      support.
1600  *
1601  *      Commands %READ_6, %READ_10, %READ_16, %WRITE_6, %WRITE_10, and
1602  *      %WRITE_16 are currently supported.
1603  *
1604  *      LOCKING:
1605  *      spin_lock_irqsave(host lock)
1606  *
1607  *      RETURNS:
1608  *      Zero on success, non-zero on error.
1609  */
1610 static unsigned int ata_scsi_rw_xlat(struct ata_queued_cmd *qc)
1611 {
1612         struct scsi_cmnd *scmd = qc->scsicmd;
1613         const u8 *cdb = scmd->cmnd;
1614         unsigned int tf_flags = 0;
1615         u64 block;
1616         u32 n_block;
1617         int rc;
1618
1619         if (cdb[0] == WRITE_10 || cdb[0] == WRITE_6 || cdb[0] == WRITE_16)
1620                 tf_flags |= ATA_TFLAG_WRITE;
1621
1622         /* Calculate the SCSI LBA, transfer length and FUA. */
1623         switch (cdb[0]) {
1624         case READ_10:
1625         case WRITE_10:
1626                 if (unlikely(scmd->cmd_len < 10))
1627                         goto invalid_fld;
1628                 scsi_10_lba_len(cdb, &block, &n_block);
1629                 if (unlikely(cdb[1] & (1 << 3)))
1630                         tf_flags |= ATA_TFLAG_FUA;
1631                 break;
1632         case READ_6:
1633         case WRITE_6:
1634                 if (unlikely(scmd->cmd_len < 6))
1635                         goto invalid_fld;
1636                 scsi_6_lba_len(cdb, &block, &n_block);
1637
1638                 /* for 6-byte r/w commands, transfer length 0
1639                  * means 256 blocks of data, not 0 block.
1640                  */
1641                 if (!n_block)
1642                         n_block = 256;
1643                 break;
1644         case READ_16:
1645         case WRITE_16:
1646                 if (unlikely(scmd->cmd_len < 16))
1647                         goto invalid_fld;
1648                 scsi_16_lba_len(cdb, &block, &n_block);
1649                 if (unlikely(cdb[1] & (1 << 3)))
1650                         tf_flags |= ATA_TFLAG_FUA;
1651                 break;
1652         default:
1653                 DPRINTK("no-byte command\n");
1654                 goto invalid_fld;
1655         }
1656
1657         /* Check and compose ATA command */
1658         if (!n_block)
1659                 /* For 10-byte and 16-byte SCSI R/W commands, transfer
1660                  * length 0 means transfer 0 block of data.
1661                  * However, for ATA R/W commands, sector count 0 means
1662                  * 256 or 65536 sectors, not 0 sectors as in SCSI.
1663                  *
1664                  * WARNING: one or two older ATA drives treat 0 as 0...
1665                  */
1666                 goto nothing_to_do;
1667
1668         qc->flags |= ATA_QCFLAG_IO;
1669         qc->nbytes = n_block * ATA_SECT_SIZE;
1670
1671         rc = ata_build_rw_tf(&qc->tf, qc->dev, block, n_block, tf_flags,
1672                              qc->tag);
1673         if (likely(rc == 0))
1674                 return 0;
1675
1676         if (rc == -ERANGE)
1677                 goto out_of_range;
1678         /* treat all other errors as -EINVAL, fall through */
1679 invalid_fld:
1680         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x24, 0x0);
1681         /* "Invalid field in cbd" */
1682         return 1;
1683
1684 out_of_range:
1685         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x21, 0x0);
1686         /* "Logical Block Address out of range" */
1687         return 1;
1688
1689 nothing_to_do:
1690         scmd->result = SAM_STAT_GOOD;
1691         return 1;
1692 }
1693
1694 static void ata_scsi_qc_complete(struct ata_queued_cmd *qc)
1695 {
1696         struct ata_port *ap = qc->ap;
1697         struct scsi_cmnd *cmd = qc->scsicmd;
1698         u8 *cdb = cmd->cmnd;
1699         int need_sense = (qc->err_mask != 0);
1700
1701         /* For ATA pass thru (SAT) commands, generate a sense block if
1702          * user mandated it or if there's an error.  Note that if we
1703          * generate because the user forced us to, a check condition
1704          * is generated and the ATA register values are returned
1705          * whether the command completed successfully or not. If there
1706          * was no error, SK, ASC and ASCQ will all be zero.
1707          */
1708         if (((cdb[0] == ATA_16) || (cdb[0] == ATA_12)) &&
1709             ((cdb[2] & 0x20) || need_sense)) {
1710                 ata_gen_passthru_sense(qc);
1711         } else {
1712                 if (!need_sense) {
1713                         cmd->result = SAM_STAT_GOOD;
1714                 } else {
1715                         /* TODO: decide which descriptor format to use
1716                          * for 48b LBA devices and call that here
1717                          * instead of the fixed desc, which is only
1718                          * good for smaller LBA (and maybe CHS?)
1719                          * devices.
1720                          */
1721                         ata_gen_ata_sense(qc);
1722                 }
1723         }
1724
1725         /* XXX: track spindown state for spindown skipping and warning */
1726         if (unlikely(qc->tf.command == ATA_CMD_STANDBY ||
1727                      qc->tf.command == ATA_CMD_STANDBYNOW1))
1728                 qc->dev->flags |= ATA_DFLAG_SPUNDOWN;
1729         else if (likely(system_state != SYSTEM_HALT &&
1730                         system_state != SYSTEM_POWER_OFF))
1731                 qc->dev->flags &= ~ATA_DFLAG_SPUNDOWN;
1732
1733         if (need_sense && !ap->ops->error_handler)
1734                 ata_dump_status(ap->print_id, &qc->result_tf);
1735
1736         qc->scsidone(cmd);
1737
1738         ata_qc_free(qc);
1739 }
1740
1741 /**
1742  *      ata_scsi_translate - Translate then issue SCSI command to ATA device
1743  *      @dev: ATA device to which the command is addressed
1744  *      @cmd: SCSI command to execute
1745  *      @done: SCSI command completion function
1746  *      @xlat_func: Actor which translates @cmd to an ATA taskfile
1747  *
1748  *      Our ->queuecommand() function has decided that the SCSI
1749  *      command issued can be directly translated into an ATA
1750  *      command, rather than handled internally.
1751  *
1752  *      This function sets up an ata_queued_cmd structure for the
1753  *      SCSI command, and sends that ata_queued_cmd to the hardware.
1754  *
1755  *      The xlat_func argument (actor) returns 0 if ready to execute
1756  *      ATA command, else 1 to finish translation. If 1 is returned
1757  *      then cmd->result (and possibly cmd->sense_buffer) are assumed
1758  *      to be set reflecting an error condition or clean (early)
1759  *      termination.
1760  *
1761  *      LOCKING:
1762  *      spin_lock_irqsave(host lock)
1763  *
1764  *      RETURNS:
1765  *      0 on success, SCSI_ML_QUEUE_DEVICE_BUSY if the command
1766  *      needs to be deferred.
1767  */
1768 static int ata_scsi_translate(struct ata_device *dev, struct scsi_cmnd *cmd,
1769                               void (*done)(struct scsi_cmnd *),
1770                               ata_xlat_func_t xlat_func)
1771 {
1772         struct ata_port *ap = dev->link->ap;
1773         struct ata_queued_cmd *qc;
1774         int rc;
1775
1776         VPRINTK("ENTER\n");
1777
1778         qc = ata_scsi_qc_new(dev, cmd, done);
1779         if (!qc)
1780                 goto err_mem;
1781
1782         /* data is present; dma-map it */
1783         if (cmd->sc_data_direction == DMA_FROM_DEVICE ||
1784             cmd->sc_data_direction == DMA_TO_DEVICE) {
1785                 if (unlikely(scsi_bufflen(cmd) < 1)) {
1786                         ata_dev_printk(dev, KERN_WARNING,
1787                                        "WARNING: zero len r/w req\n");
1788                         goto err_did;
1789                 }
1790
1791                 ata_sg_init(qc, scsi_sglist(cmd), scsi_sg_count(cmd));
1792
1793                 qc->dma_dir = cmd->sc_data_direction;
1794         }
1795
1796         qc->complete_fn = ata_scsi_qc_complete;
1797
1798         if (xlat_func(qc))
1799                 goto early_finish;
1800
1801         if (ap->ops->qc_defer) {
1802                 if ((rc = ap->ops->qc_defer(qc)))
1803                         goto defer;
1804         }
1805
1806         /* select device, send command to hardware */
1807         ata_qc_issue(qc);
1808
1809         VPRINTK("EXIT\n");
1810         return 0;
1811
1812 early_finish:
1813         ata_qc_free(qc);
1814         qc->scsidone(cmd);
1815         DPRINTK("EXIT - early finish (good or error)\n");
1816         return 0;
1817
1818 err_did:
1819         ata_qc_free(qc);
1820         cmd->result = (DID_ERROR << 16);
1821         qc->scsidone(cmd);
1822 err_mem:
1823         DPRINTK("EXIT - internal\n");
1824         return 0;
1825
1826 defer:
1827         ata_qc_free(qc);
1828         DPRINTK("EXIT - defer\n");
1829         if (rc == ATA_DEFER_LINK)
1830                 return SCSI_MLQUEUE_DEVICE_BUSY;
1831         else
1832                 return SCSI_MLQUEUE_HOST_BUSY;
1833 }
1834
1835 /**
1836  *      ata_scsi_rbuf_get - Map response buffer.
1837  *      @cmd: SCSI command containing buffer to be mapped.
1838  *      @flags: unsigned long variable to store irq enable status
1839  *      @copy_in: copy in from user buffer
1840  *
1841  *      Prepare buffer for simulated SCSI commands.
1842  *
1843  *      LOCKING:
1844  *      spin_lock_irqsave(ata_scsi_rbuf_lock) on success
1845  *
1846  *      RETURNS:
1847  *      Pointer to response buffer.
1848  */
1849 static void *ata_scsi_rbuf_get(struct scsi_cmnd *cmd, bool copy_in,
1850                                unsigned long *flags)
1851 {
1852         spin_lock_irqsave(&ata_scsi_rbuf_lock, *flags);
1853
1854         memset(ata_scsi_rbuf, 0, ATA_SCSI_RBUF_SIZE);
1855         if (copy_in)
1856                 sg_copy_to_buffer(scsi_sglist(cmd), scsi_sg_count(cmd),
1857                                   ata_scsi_rbuf, ATA_SCSI_RBUF_SIZE);
1858         return ata_scsi_rbuf;
1859 }
1860
1861 /**
1862  *      ata_scsi_rbuf_put - Unmap response buffer.
1863  *      @cmd: SCSI command containing buffer to be unmapped.
1864  *      @copy_out: copy out result
1865  *      @flags: @flags passed to ata_scsi_rbuf_get()
1866  *
1867  *      Returns rbuf buffer.  The result is copied to @cmd's buffer if
1868  *      @copy_back is true.
1869  *
1870  *      LOCKING:
1871  *      Unlocks ata_scsi_rbuf_lock.
1872  */
1873 static inline void ata_scsi_rbuf_put(struct scsi_cmnd *cmd, bool copy_out,
1874                                      unsigned long *flags)
1875 {
1876         if (copy_out)
1877                 sg_copy_from_buffer(scsi_sglist(cmd), scsi_sg_count(cmd),
1878                                     ata_scsi_rbuf, ATA_SCSI_RBUF_SIZE);
1879         spin_unlock_irqrestore(&ata_scsi_rbuf_lock, *flags);
1880 }
1881
1882 /**
1883  *      ata_scsi_rbuf_fill - wrapper for SCSI command simulators
1884  *      @args: device IDENTIFY data / SCSI command of interest.
1885  *      @actor: Callback hook for desired SCSI command simulator
1886  *
1887  *      Takes care of the hard work of simulating a SCSI command...
1888  *      Mapping the response buffer, calling the command's handler,
1889  *      and handling the handler's return value.  This return value
1890  *      indicates whether the handler wishes the SCSI command to be
1891  *      completed successfully (0), or not (in which case cmd->result
1892  *      and sense buffer are assumed to be set).
1893  *
1894  *      LOCKING:
1895  *      spin_lock_irqsave(host lock)
1896  */
1897 static void ata_scsi_rbuf_fill(struct ata_scsi_args *args,
1898                 unsigned int (*actor)(struct ata_scsi_args *args, u8 *rbuf))
1899 {
1900         u8 *rbuf;
1901         unsigned int rc;
1902         struct scsi_cmnd *cmd = args->cmd;
1903         unsigned long flags;
1904
1905         rbuf = ata_scsi_rbuf_get(cmd, false, &flags);
1906         rc = actor(args, rbuf);
1907         ata_scsi_rbuf_put(cmd, rc == 0, &flags);
1908
1909         if (rc == 0)
1910                 cmd->result = SAM_STAT_GOOD;
1911         args->done(cmd);
1912 }
1913
1914 /**
1915  *      ata_scsiop_inq_std - Simulate INQUIRY command
1916  *      @args: device IDENTIFY data / SCSI command of interest.
1917  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
1918  *
1919  *      Returns standard device identification data associated
1920  *      with non-VPD INQUIRY command output.
1921  *
1922  *      LOCKING:
1923  *      spin_lock_irqsave(host lock)
1924  */
1925 static unsigned int ata_scsiop_inq_std(struct ata_scsi_args *args, u8 *rbuf)
1926 {
1927         const u8 versions[] = {
1928                 0x60,   /* SAM-3 (no version claimed) */
1929
1930                 0x03,
1931                 0x20,   /* SBC-2 (no version claimed) */
1932
1933                 0x02,
1934                 0x60    /* SPC-3 (no version claimed) */
1935         };
1936         u8 hdr[] = {
1937                 TYPE_DISK,
1938                 0,
1939                 0x5,    /* claim SPC-3 version compatibility */
1940                 2,
1941                 95 - 4
1942         };
1943
1944         VPRINTK("ENTER\n");
1945
1946         /* set scsi removeable (RMB) bit per ata bit */
1947         if (ata_id_removeable(args->id))
1948                 hdr[1] |= (1 << 7);
1949
1950         memcpy(rbuf, hdr, sizeof(hdr));
1951
1952         /* if ncq, set tags supported */
1953         if (ata_id_has_ncq(args->id))
1954                 rbuf[7] |= (1 << 1);
1955
1956         memcpy(&rbuf[8], "ATA     ", 8);
1957         ata_id_string(args->id, &rbuf[16], ATA_ID_PROD, 16);
1958         ata_id_string(args->id, &rbuf[32], ATA_ID_FW_REV, 4);
1959
1960         if (rbuf[32] == 0 || rbuf[32] == ' ')
1961                 memcpy(&rbuf[32], "n/a ", 4);
1962
1963         memcpy(rbuf + 59, versions, sizeof(versions));
1964
1965         return 0;
1966 }
1967
1968 /**
1969  *      ata_scsiop_inq_00 - Simulate INQUIRY VPD page 0, list of pages
1970  *      @args: device IDENTIFY data / SCSI command of interest.
1971  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
1972  *
1973  *      Returns list of inquiry VPD pages available.
1974  *
1975  *      LOCKING:
1976  *      spin_lock_irqsave(host lock)
1977  */
1978 static unsigned int ata_scsiop_inq_00(struct ata_scsi_args *args, u8 *rbuf)
1979 {
1980         const u8 pages[] = {
1981                 0x00,   /* page 0x00, this page */
1982                 0x80,   /* page 0x80, unit serial no page */
1983                 0x83,   /* page 0x83, device ident page */
1984                 0x89,   /* page 0x89, ata info page */
1985                 0xb1,   /* page 0xb1, block device characteristics page */
1986         };
1987
1988         rbuf[3] = sizeof(pages);        /* number of supported VPD pages */
1989         memcpy(rbuf + 4, pages, sizeof(pages));
1990         return 0;
1991 }
1992
1993 /**
1994  *      ata_scsiop_inq_80 - Simulate INQUIRY VPD page 80, device serial number
1995  *      @args: device IDENTIFY data / SCSI command of interest.
1996  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
1997  *
1998  *      Returns ATA device serial number.
1999  *
2000  *      LOCKING:
2001  *      spin_lock_irqsave(host lock)
2002  */
2003 static unsigned int ata_scsiop_inq_80(struct ata_scsi_args *args, u8 *rbuf)
2004 {
2005         const u8 hdr[] = {
2006                 0,
2007                 0x80,                   /* this page code */
2008                 0,
2009                 ATA_ID_SERNO_LEN,       /* page len */
2010         };
2011
2012         memcpy(rbuf, hdr, sizeof(hdr));
2013         ata_id_string(args->id, (unsigned char *) &rbuf[4],
2014                       ATA_ID_SERNO, ATA_ID_SERNO_LEN);
2015         return 0;
2016 }
2017
2018 /**
2019  *      ata_scsiop_inq_83 - Simulate INQUIRY VPD page 83, device identity
2020  *      @args: device IDENTIFY data / SCSI command of interest.
2021  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2022  *
2023  *      Yields two logical unit device identification designators:
2024  *       - vendor specific ASCII containing the ATA serial number
2025  *       - SAT defined "t10 vendor id based" containing ASCII vendor
2026  *         name ("ATA     "), model and serial numbers.
2027  *
2028  *      LOCKING:
2029  *      spin_lock_irqsave(host lock)
2030  */
2031 static unsigned int ata_scsiop_inq_83(struct ata_scsi_args *args, u8 *rbuf)
2032 {
2033         const int sat_model_serial_desc_len = 68;
2034         int num;
2035
2036         rbuf[1] = 0x83;                 /* this page code */
2037         num = 4;
2038
2039         /* piv=0, assoc=lu, code_set=ACSII, designator=vendor */
2040         rbuf[num + 0] = 2;
2041         rbuf[num + 3] = ATA_ID_SERNO_LEN;
2042         num += 4;
2043         ata_id_string(args->id, (unsigned char *) rbuf + num,
2044                       ATA_ID_SERNO, ATA_ID_SERNO_LEN);
2045         num += ATA_ID_SERNO_LEN;
2046
2047         /* SAT defined lu model and serial numbers descriptor */
2048         /* piv=0, assoc=lu, code_set=ACSII, designator=t10 vendor id */
2049         rbuf[num + 0] = 2;
2050         rbuf[num + 1] = 1;
2051         rbuf[num + 3] = sat_model_serial_desc_len;
2052         num += 4;
2053         memcpy(rbuf + num, "ATA     ", 8);
2054         num += 8;
2055         ata_id_string(args->id, (unsigned char *) rbuf + num, ATA_ID_PROD,
2056                       ATA_ID_PROD_LEN);
2057         num += ATA_ID_PROD_LEN;
2058         ata_id_string(args->id, (unsigned char *) rbuf + num, ATA_ID_SERNO,
2059                       ATA_ID_SERNO_LEN);
2060         num += ATA_ID_SERNO_LEN;
2061
2062         rbuf[3] = num - 4;    /* page len (assume less than 256 bytes) */
2063         return 0;
2064 }
2065
2066 /**
2067  *      ata_scsiop_inq_89 - Simulate INQUIRY VPD page 89, ATA info
2068  *      @args: device IDENTIFY data / SCSI command of interest.
2069  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2070  *
2071  *      Yields SAT-specified ATA VPD page.
2072  *
2073  *      LOCKING:
2074  *      spin_lock_irqsave(host lock)
2075  */
2076 static unsigned int ata_scsiop_inq_89(struct ata_scsi_args *args, u8 *rbuf)
2077 {
2078         struct ata_taskfile tf;
2079
2080         memset(&tf, 0, sizeof(tf));
2081
2082         rbuf[1] = 0x89;                 /* our page code */
2083         rbuf[2] = (0x238 >> 8);         /* page size fixed at 238h */
2084         rbuf[3] = (0x238 & 0xff);
2085
2086         memcpy(&rbuf[8], "linux   ", 8);
2087         memcpy(&rbuf[16], "libata          ", 16);
2088         memcpy(&rbuf[32], DRV_VERSION, 4);
2089         ata_id_string(args->id, &rbuf[32], ATA_ID_FW_REV, 4);
2090
2091         /* we don't store the ATA device signature, so we fake it */
2092
2093         tf.command = ATA_DRDY;          /* really, this is Status reg */
2094         tf.lbal = 0x1;
2095         tf.nsect = 0x1;
2096
2097         ata_tf_to_fis(&tf, 0, 1, &rbuf[36]);    /* TODO: PMP? */
2098         rbuf[36] = 0x34;                /* force D2H Reg FIS (34h) */
2099
2100         rbuf[56] = ATA_CMD_ID_ATA;
2101
2102         memcpy(&rbuf[60], &args->id[0], 512);
2103         return 0;
2104 }
2105
2106 static unsigned int ata_scsiop_inq_b1(struct ata_scsi_args *args, u8 *rbuf)
2107 {
2108         rbuf[1] = 0xb1;
2109         rbuf[3] = 0x3c;
2110         if (ata_id_major_version(args->id) > 7) {
2111                 rbuf[4] = args->id[217] >> 8;
2112                 rbuf[5] = args->id[217];
2113                 rbuf[7] = args->id[168] & 0xf;
2114         }
2115
2116         return 0;
2117 }
2118
2119 /**
2120  *      ata_scsiop_noop - Command handler that simply returns success.
2121  *      @args: device IDENTIFY data / SCSI command of interest.
2122  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2123  *
2124  *      No operation.  Simply returns success to caller, to indicate
2125  *      that the caller should successfully complete this SCSI command.
2126  *
2127  *      LOCKING:
2128  *      spin_lock_irqsave(host lock)
2129  */
2130 static unsigned int ata_scsiop_noop(struct ata_scsi_args *args, u8 *rbuf)
2131 {
2132         VPRINTK("ENTER\n");
2133         return 0;
2134 }
2135
2136 /**
2137  *      ata_msense_caching - Simulate MODE SENSE caching info page
2138  *      @id: device IDENTIFY data
2139  *      @buf: output buffer
2140  *
2141  *      Generate a caching info page, which conditionally indicates
2142  *      write caching to the SCSI layer, depending on device
2143  *      capabilities.
2144  *
2145  *      LOCKING:
2146  *      None.
2147  */
2148 static unsigned int ata_msense_caching(u16 *id, u8 *buf)
2149 {
2150         memcpy(buf, def_cache_mpage, sizeof(def_cache_mpage));
2151         if (ata_id_wcache_enabled(id))
2152                 buf[2] |= (1 << 2);     /* write cache enable */
2153         if (!ata_id_rahead_enabled(id))
2154                 buf[12] |= (1 << 5);    /* disable read ahead */
2155         return sizeof(def_cache_mpage);
2156 }
2157
2158 /**
2159  *      ata_msense_ctl_mode - Simulate MODE SENSE control mode page
2160  *      @buf: output buffer
2161  *
2162  *      Generate a generic MODE SENSE control mode page.
2163  *
2164  *      LOCKING:
2165  *      None.
2166  */
2167 static unsigned int ata_msense_ctl_mode(u8 *buf)
2168 {
2169         memcpy(buf, def_control_mpage, sizeof(def_control_mpage));
2170         return sizeof(def_control_mpage);
2171 }
2172
2173 /**
2174  *      ata_msense_rw_recovery - Simulate MODE SENSE r/w error recovery page
2175  *      @buf: output buffer
2176  *
2177  *      Generate a generic MODE SENSE r/w error recovery page.
2178  *
2179  *      LOCKING:
2180  *      None.
2181  */
2182 static unsigned int ata_msense_rw_recovery(u8 *buf)
2183 {
2184         memcpy(buf, def_rw_recovery_mpage, sizeof(def_rw_recovery_mpage));
2185         return sizeof(def_rw_recovery_mpage);
2186 }
2187
2188 /*
2189  * We can turn this into a real blacklist if it's needed, for now just
2190  * blacklist any Maxtor BANC1G10 revision firmware
2191  */
2192 static int ata_dev_supports_fua(u16 *id)
2193 {
2194         unsigned char model[ATA_ID_PROD_LEN + 1], fw[ATA_ID_FW_REV_LEN + 1];
2195
2196         if (!libata_fua)
2197                 return 0;
2198         if (!ata_id_has_fua(id))
2199                 return 0;
2200
2201         ata_id_c_string(id, model, ATA_ID_PROD, sizeof(model));
2202         ata_id_c_string(id, fw, ATA_ID_FW_REV, sizeof(fw));
2203
2204         if (strcmp(model, "Maxtor"))
2205                 return 1;
2206         if (strcmp(fw, "BANC1G10"))
2207                 return 1;
2208
2209         return 0; /* blacklisted */
2210 }
2211
2212 /**
2213  *      ata_scsiop_mode_sense - Simulate MODE SENSE 6, 10 commands
2214  *      @args: device IDENTIFY data / SCSI command of interest.
2215  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2216  *
2217  *      Simulate MODE SENSE commands. Assume this is invoked for direct
2218  *      access devices (e.g. disks) only. There should be no block
2219  *      descriptor for other device types.
2220  *
2221  *      LOCKING:
2222  *      spin_lock_irqsave(host lock)
2223  */
2224 static unsigned int ata_scsiop_mode_sense(struct ata_scsi_args *args, u8 *rbuf)
2225 {
2226         struct ata_device *dev = args->dev;
2227         u8 *scsicmd = args->cmd->cmnd, *p = rbuf;
2228         const u8 sat_blk_desc[] = {
2229                 0, 0, 0, 0,     /* number of blocks: sat unspecified */
2230                 0,
2231                 0, 0x2, 0x0     /* block length: 512 bytes */
2232         };
2233         u8 pg, spg;
2234         unsigned int ebd, page_control, six_byte;
2235         u8 dpofua;
2236
2237         VPRINTK("ENTER\n");
2238
2239         six_byte = (scsicmd[0] == MODE_SENSE);
2240         ebd = !(scsicmd[1] & 0x8);      /* dbd bit inverted == edb */
2241         /*
2242          * LLBA bit in msense(10) ignored (compliant)
2243          */
2244
2245         page_control = scsicmd[2] >> 6;
2246         switch (page_control) {
2247         case 0: /* current */
2248                 break;  /* supported */
2249         case 3: /* saved */
2250                 goto saving_not_supp;
2251         case 1: /* changeable */
2252         case 2: /* defaults */
2253         default:
2254                 goto invalid_fld;
2255         }
2256
2257         if (six_byte)
2258                 p += 4 + (ebd ? 8 : 0);
2259         else
2260                 p += 8 + (ebd ? 8 : 0);
2261
2262         pg = scsicmd[2] & 0x3f;
2263         spg = scsicmd[3];
2264         /*
2265          * No mode subpages supported (yet) but asking for _all_
2266          * subpages may be valid
2267          */
2268         if (spg && (spg != ALL_SUB_MPAGES))
2269                 goto invalid_fld;
2270
2271         switch(pg) {
2272         case RW_RECOVERY_MPAGE:
2273                 p += ata_msense_rw_recovery(p);
2274                 break;
2275
2276         case CACHE_MPAGE:
2277                 p += ata_msense_caching(args->id, p);
2278                 break;
2279
2280         case CONTROL_MPAGE:
2281                 p += ata_msense_ctl_mode(p);
2282                 break;
2283
2284         case ALL_MPAGES:
2285                 p += ata_msense_rw_recovery(p);
2286                 p += ata_msense_caching(args->id, p);
2287                 p += ata_msense_ctl_mode(p);
2288                 break;
2289
2290         default:                /* invalid page code */
2291                 goto invalid_fld;
2292         }
2293
2294         dpofua = 0;
2295         if (ata_dev_supports_fua(args->id) && (dev->flags & ATA_DFLAG_LBA48) &&
2296             (!(dev->flags & ATA_DFLAG_PIO) || dev->multi_count))
2297                 dpofua = 1 << 4;
2298
2299         if (six_byte) {
2300                 rbuf[0] = p - rbuf - 1;
2301                 rbuf[2] |= dpofua;
2302                 if (ebd) {
2303                         rbuf[3] = sizeof(sat_blk_desc);
2304                         memcpy(rbuf + 4, sat_blk_desc, sizeof(sat_blk_desc));
2305                 }
2306         } else {
2307                 unsigned int output_len = p - rbuf - 2;
2308
2309                 rbuf[0] = output_len >> 8;
2310                 rbuf[1] = output_len;
2311                 rbuf[3] |= dpofua;
2312                 if (ebd) {
2313                         rbuf[7] = sizeof(sat_blk_desc);
2314                         memcpy(rbuf + 8, sat_blk_desc, sizeof(sat_blk_desc));
2315                 }
2316         }
2317         return 0;
2318
2319 invalid_fld:
2320         ata_scsi_set_sense(args->cmd, ILLEGAL_REQUEST, 0x24, 0x0);
2321         /* "Invalid field in cbd" */
2322         return 1;
2323
2324 saving_not_supp:
2325         ata_scsi_set_sense(args->cmd, ILLEGAL_REQUEST, 0x39, 0x0);
2326          /* "Saving parameters not supported" */
2327         return 1;
2328 }
2329
2330 /**
2331  *      ata_scsiop_read_cap - Simulate READ CAPACITY[ 16] commands
2332  *      @args: device IDENTIFY data / SCSI command of interest.
2333  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2334  *
2335  *      Simulate READ CAPACITY commands.
2336  *
2337  *      LOCKING:
2338  *      None.
2339  */
2340 static unsigned int ata_scsiop_read_cap(struct ata_scsi_args *args, u8 *rbuf)
2341 {
2342         u64 last_lba = args->dev->n_sectors - 1; /* LBA of the last block */
2343
2344         VPRINTK("ENTER\n");
2345
2346         if (args->cmd->cmnd[0] == READ_CAPACITY) {
2347                 if (last_lba >= 0xffffffffULL)
2348                         last_lba = 0xffffffff;
2349
2350                 /* sector count, 32-bit */
2351                 rbuf[0] = last_lba >> (8 * 3);
2352                 rbuf[1] = last_lba >> (8 * 2);
2353                 rbuf[2] = last_lba >> (8 * 1);
2354                 rbuf[3] = last_lba;
2355
2356                 /* sector size */
2357                 rbuf[6] = ATA_SECT_SIZE >> 8;
2358                 rbuf[7] = ATA_SECT_SIZE & 0xff;
2359         } else {
2360                 /* sector count, 64-bit */
2361                 rbuf[0] = last_lba >> (8 * 7);
2362                 rbuf[1] = last_lba >> (8 * 6);
2363                 rbuf[2] = last_lba >> (8 * 5);
2364                 rbuf[3] = last_lba >> (8 * 4);
2365                 rbuf[4] = last_lba >> (8 * 3);
2366                 rbuf[5] = last_lba >> (8 * 2);
2367                 rbuf[6] = last_lba >> (8 * 1);
2368                 rbuf[7] = last_lba;
2369
2370                 /* sector size */
2371                 rbuf[10] = ATA_SECT_SIZE >> 8;
2372                 rbuf[11] = ATA_SECT_SIZE & 0xff;
2373         }
2374
2375         return 0;
2376 }
2377
2378 /**
2379  *      ata_scsiop_report_luns - Simulate REPORT LUNS command
2380  *      @args: device IDENTIFY data / SCSI command of interest.
2381  *      @rbuf: Response buffer, to which simulated SCSI cmd output is sent.
2382  *
2383  *      Simulate REPORT LUNS command.
2384  *
2385  *      LOCKING:
2386  *      spin_lock_irqsave(host lock)
2387  */
2388 static unsigned int ata_scsiop_report_luns(struct ata_scsi_args *args, u8 *rbuf)
2389 {
2390         VPRINTK("ENTER\n");
2391         rbuf[3] = 8;    /* just one lun, LUN 0, size 8 bytes */
2392
2393         return 0;
2394 }
2395
2396 static void atapi_sense_complete(struct ata_queued_cmd *qc)
2397 {
2398         if (qc->err_mask && ((qc->err_mask & AC_ERR_DEV) == 0)) {
2399                 /* FIXME: not quite right; we don't want the
2400                  * translation of taskfile registers into
2401                  * a sense descriptors, since that's only
2402                  * correct for ATA, not ATAPI
2403                  */
2404                 ata_gen_passthru_sense(qc);
2405         }
2406
2407         qc->scsidone(qc->scsicmd);
2408         ata_qc_free(qc);
2409 }
2410
2411 /* is it pointless to prefer PIO for "safety reasons"? */
2412 static inline int ata_pio_use_silly(struct ata_port *ap)
2413 {
2414         return (ap->flags & ATA_FLAG_PIO_DMA);
2415 }
2416
2417 static void atapi_request_sense(struct ata_queued_cmd *qc)
2418 {
2419         struct ata_port *ap = qc->ap;
2420         struct scsi_cmnd *cmd = qc->scsicmd;
2421
2422         DPRINTK("ATAPI request sense\n");
2423
2424         /* FIXME: is this needed? */
2425         memset(cmd->sense_buffer, 0, SCSI_SENSE_BUFFERSIZE);
2426
2427 #ifdef CONFIG_ATA_SFF
2428         if (ap->ops->sff_tf_read)
2429                 ap->ops->sff_tf_read(ap, &qc->tf);
2430 #endif
2431
2432         /* fill these in, for the case where they are -not- overwritten */
2433         cmd->sense_buffer[0] = 0x70;
2434         cmd->sense_buffer[2] = qc->tf.feature >> 4;
2435
2436         ata_qc_reinit(qc);
2437
2438         /* setup sg table and init transfer direction */
2439         sg_init_one(&qc->sgent, cmd->sense_buffer, SCSI_SENSE_BUFFERSIZE);
2440         ata_sg_init(qc, &qc->sgent, 1);
2441         qc->dma_dir = DMA_FROM_DEVICE;
2442
2443         memset(&qc->cdb, 0, qc->dev->cdb_len);
2444         qc->cdb[0] = REQUEST_SENSE;
2445         qc->cdb[4] = SCSI_SENSE_BUFFERSIZE;
2446
2447         qc->tf.flags |= ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE;
2448         qc->tf.command = ATA_CMD_PACKET;
2449
2450         if (ata_pio_use_silly(ap)) {
2451                 qc->tf.protocol = ATAPI_PROT_DMA;
2452                 qc->tf.feature |= ATAPI_PKT_DMA;
2453         } else {
2454                 qc->tf.protocol = ATAPI_PROT_PIO;
2455                 qc->tf.lbam = SCSI_SENSE_BUFFERSIZE;
2456                 qc->tf.lbah = 0;
2457         }
2458         qc->nbytes = SCSI_SENSE_BUFFERSIZE;
2459
2460         qc->complete_fn = atapi_sense_complete;
2461
2462         ata_qc_issue(qc);
2463
2464         DPRINTK("EXIT\n");
2465 }
2466
2467 static void atapi_qc_complete(struct ata_queued_cmd *qc)
2468 {
2469         struct scsi_cmnd *cmd = qc->scsicmd;
2470         unsigned int err_mask = qc->err_mask;
2471
2472         VPRINTK("ENTER, err_mask 0x%X\n", err_mask);
2473
2474         /* handle completion from new EH */
2475         if (unlikely(qc->ap->ops->error_handler &&
2476                      (err_mask || qc->flags & ATA_QCFLAG_SENSE_VALID))) {
2477
2478                 if (!(qc->flags & ATA_QCFLAG_SENSE_VALID)) {
2479                         /* FIXME: not quite right; we don't want the
2480                          * translation of taskfile registers into a
2481                          * sense descriptors, since that's only
2482                          * correct for ATA, not ATAPI
2483                          */
2484                         ata_gen_passthru_sense(qc);
2485                 }
2486
2487                 /* SCSI EH automatically locks door if sdev->locked is
2488                  * set.  Sometimes door lock request continues to
2489                  * fail, for example, when no media is present.  This
2490                  * creates a loop - SCSI EH issues door lock which
2491                  * fails and gets invoked again to acquire sense data
2492                  * for the failed command.
2493                  *
2494                  * If door lock fails, always clear sdev->locked to
2495                  * avoid this infinite loop.
2496                  */
2497                 if (qc->cdb[0] == ALLOW_MEDIUM_REMOVAL)
2498                         qc->dev->sdev->locked = 0;
2499
2500                 qc->scsicmd->result = SAM_STAT_CHECK_CONDITION;
2501                 qc->scsidone(cmd);
2502                 ata_qc_free(qc);
2503                 return;
2504         }
2505
2506         /* successful completion or old EH failure path */
2507         if (unlikely(err_mask & AC_ERR_DEV)) {
2508                 cmd->result = SAM_STAT_CHECK_CONDITION;
2509                 atapi_request_sense(qc);
2510                 return;
2511         } else if (unlikely(err_mask)) {
2512                 /* FIXME: not quite right; we don't want the
2513                  * translation of taskfile registers into
2514                  * a sense descriptors, since that's only
2515                  * correct for ATA, not ATAPI
2516                  */
2517                 ata_gen_passthru_sense(qc);
2518         } else {
2519                 u8 *scsicmd = cmd->cmnd;
2520
2521                 if ((scsicmd[0] == INQUIRY) && ((scsicmd[1] & 0x03) == 0)) {
2522                         unsigned long flags;
2523                         u8 *buf;
2524
2525                         buf = ata_scsi_rbuf_get(cmd, true, &flags);
2526
2527         /* ATAPI devices typically report zero for their SCSI version,
2528          * and sometimes deviate from the spec WRT response data
2529          * format.  If SCSI version is reported as zero like normal,
2530          * then we make the following fixups:  1) Fake MMC-5 version,
2531          * to indicate to the Linux scsi midlayer this is a modern
2532          * device.  2) Ensure response data format / ATAPI information
2533          * are always correct.
2534          */
2535                         if (buf[2] == 0) {
2536                                 buf[2] = 0x5;
2537                                 buf[3] = 0x32;
2538                         }
2539
2540                         ata_scsi_rbuf_put(cmd, true, &flags);
2541                 }
2542
2543                 cmd->result = SAM_STAT_GOOD;
2544         }
2545
2546         qc->scsidone(cmd);
2547         ata_qc_free(qc);
2548 }
2549 /**
2550  *      atapi_xlat - Initialize PACKET taskfile
2551  *      @qc: command structure to be initialized
2552  *
2553  *      LOCKING:
2554  *      spin_lock_irqsave(host lock)
2555  *
2556  *      RETURNS:
2557  *      Zero on success, non-zero on failure.
2558  */
2559 static unsigned int atapi_xlat(struct ata_queued_cmd *qc)
2560 {
2561         struct scsi_cmnd *scmd = qc->scsicmd;
2562         struct ata_device *dev = qc->dev;
2563         int nodata = (scmd->sc_data_direction == DMA_NONE);
2564         int using_pio = !nodata && (dev->flags & ATA_DFLAG_PIO);
2565         unsigned int nbytes;
2566
2567         memset(qc->cdb, 0, dev->cdb_len);
2568         memcpy(qc->cdb, scmd->cmnd, scmd->cmd_len);
2569
2570         qc->complete_fn = atapi_qc_complete;
2571
2572         qc->tf.flags |= ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE;
2573         if (scmd->sc_data_direction == DMA_TO_DEVICE) {
2574                 qc->tf.flags |= ATA_TFLAG_WRITE;
2575                 DPRINTK("direction: write\n");
2576         }
2577
2578         qc->tf.command = ATA_CMD_PACKET;
2579         ata_qc_set_pc_nbytes(qc);
2580
2581         /* check whether ATAPI DMA is safe */
2582         if (!nodata && !using_pio && atapi_check_dma(qc))
2583                 using_pio = 1;
2584
2585         /* Some controller variants snoop this value for Packet
2586          * transfers to do state machine and FIFO management.  Thus we
2587          * want to set it properly, and for DMA where it is
2588          * effectively meaningless.
2589          */
2590         nbytes = min(ata_qc_raw_nbytes(qc), (unsigned int)63 * 1024);
2591
2592         /* Most ATAPI devices which honor transfer chunk size don't
2593          * behave according to the spec when odd chunk size which
2594          * matches the transfer length is specified.  If the number of
2595          * bytes to transfer is 2n+1.  According to the spec, what
2596          * should happen is to indicate that 2n+1 is going to be
2597          * transferred and transfer 2n+2 bytes where the last byte is
2598          * padding.
2599          *
2600          * In practice, this doesn't happen.  ATAPI devices first
2601          * indicate and transfer 2n bytes and then indicate and
2602          * transfer 2 bytes where the last byte is padding.
2603          *
2604          * This inconsistency confuses several controllers which
2605          * perform PIO using DMA such as Intel AHCIs and sil3124/32.
2606          * These controllers use actual number of transferred bytes to
2607          * update DMA poitner and transfer of 4n+2 bytes make those
2608          * controller push DMA pointer by 4n+4 bytes because SATA data
2609          * FISes are aligned to 4 bytes.  This causes data corruption
2610          * and buffer overrun.
2611          *
2612          * Always setting nbytes to even number solves this problem
2613          * because then ATAPI devices don't have to split data at 2n
2614          * boundaries.
2615          */
2616         if (nbytes & 0x1)
2617                 nbytes++;
2618
2619         qc->tf.lbam = (nbytes & 0xFF);
2620         qc->tf.lbah = (nbytes >> 8);
2621
2622         if (nodata)
2623                 qc->tf.protocol = ATAPI_PROT_NODATA;
2624         else if (using_pio)
2625                 qc->tf.protocol = ATAPI_PROT_PIO;
2626         else {
2627                 /* DMA data xfer */
2628                 qc->tf.protocol = ATAPI_PROT_DMA;
2629                 qc->tf.feature |= ATAPI_PKT_DMA;
2630
2631                 if ((dev->flags & ATA_DFLAG_DMADIR) &&
2632                     (scmd->sc_data_direction != DMA_TO_DEVICE))
2633                         /* some SATA bridges need us to indicate data xfer direction */
2634                         qc->tf.feature |= ATAPI_DMADIR;
2635         }
2636
2637
2638         /* FIXME: We need to translate 0x05 READ_BLOCK_LIMITS to a MODE_SENSE
2639            as ATAPI tape drives don't get this right otherwise */
2640         return 0;
2641 }
2642
2643 static struct ata_device *ata_find_dev(struct ata_port *ap, int devno)
2644 {
2645         if (!sata_pmp_attached(ap)) {
2646                 if (likely(devno < ata_link_max_devices(&ap->link)))
2647                         return &ap->link.device[devno];
2648         } else {
2649                 if (likely(devno < ap->nr_pmp_links))
2650                         return &ap->pmp_link[devno].device[0];
2651         }
2652
2653         return NULL;
2654 }
2655
2656 static struct ata_device *__ata_scsi_find_dev(struct ata_port *ap,
2657                                               const struct scsi_device *scsidev)
2658 {
2659         int devno;
2660
2661         /* skip commands not addressed to targets we simulate */
2662         if (!sata_pmp_attached(ap)) {
2663                 if (unlikely(scsidev->channel || scsidev->lun))
2664                         return NULL;
2665                 devno = scsidev->id;
2666         } else {
2667                 if (unlikely(scsidev->id || scsidev->lun))
2668                         return NULL;
2669                 devno = scsidev->channel;
2670         }
2671
2672         return ata_find_dev(ap, devno);
2673 }
2674
2675 /**
2676  *      ata_scsi_find_dev - lookup ata_device from scsi_cmnd
2677  *      @ap: ATA port to which the device is attached
2678  *      @scsidev: SCSI device from which we derive the ATA device
2679  *
2680  *      Given various information provided in struct scsi_cmnd,
2681  *      map that onto an ATA bus, and using that mapping
2682  *      determine which ata_device is associated with the
2683  *      SCSI command to be sent.
2684  *
2685  *      LOCKING:
2686  *      spin_lock_irqsave(host lock)
2687  *
2688  *      RETURNS:
2689  *      Associated ATA device, or %NULL if not found.
2690  */
2691 static struct ata_device *
2692 ata_scsi_find_dev(struct ata_port *ap, const struct scsi_device *scsidev)
2693 {
2694         struct ata_device *dev = __ata_scsi_find_dev(ap, scsidev);
2695
2696         if (unlikely(!dev || !ata_dev_enabled(dev)))
2697                 return NULL;
2698
2699         return dev;
2700 }
2701
2702 /*
2703  *      ata_scsi_map_proto - Map pass-thru protocol value to taskfile value.
2704  *      @byte1: Byte 1 from pass-thru CDB.
2705  *
2706  *      RETURNS:
2707  *      ATA_PROT_UNKNOWN if mapping failed/unimplemented, protocol otherwise.
2708  */
2709 static u8
2710 ata_scsi_map_proto(u8 byte1)
2711 {
2712         switch((byte1 & 0x1e) >> 1) {
2713         case 3:         /* Non-data */
2714                 return ATA_PROT_NODATA;
2715
2716         case 6:         /* DMA */
2717         case 10:        /* UDMA Data-in */
2718         case 11:        /* UDMA Data-Out */
2719                 return ATA_PROT_DMA;
2720
2721         case 4:         /* PIO Data-in */
2722         case 5:         /* PIO Data-out */
2723                 return ATA_PROT_PIO;
2724
2725         case 0:         /* Hard Reset */
2726         case 1:         /* SRST */
2727         case 8:         /* Device Diagnostic */
2728         case 9:         /* Device Reset */
2729         case 7:         /* DMA Queued */
2730         case 12:        /* FPDMA */
2731         case 15:        /* Return Response Info */
2732         default:        /* Reserved */
2733                 break;
2734         }
2735
2736         return ATA_PROT_UNKNOWN;
2737 }
2738
2739 /**
2740  *      ata_scsi_pass_thru - convert ATA pass-thru CDB to taskfile
2741  *      @qc: command structure to be initialized
2742  *
2743  *      Handles either 12 or 16-byte versions of the CDB.
2744  *
2745  *      RETURNS:
2746  *      Zero on success, non-zero on failure.
2747  */
2748 static unsigned int ata_scsi_pass_thru(struct ata_queued_cmd *qc)
2749 {
2750         struct ata_taskfile *tf = &(qc->tf);
2751         struct scsi_cmnd *scmd = qc->scsicmd;
2752         struct ata_device *dev = qc->dev;
2753         const u8 *cdb = scmd->cmnd;
2754
2755         if ((tf->protocol = ata_scsi_map_proto(cdb[1])) == ATA_PROT_UNKNOWN)
2756                 goto invalid_fld;
2757
2758         /*
2759          * Filter TPM commands by default. These provide an
2760          * essentially uncontrolled encrypted "back door" between
2761          * applications and the disk. Set libata.allow_tpm=1 if you
2762          * have a real reason for wanting to use them. This ensures
2763          * that installed software cannot easily mess stuff up without
2764          * user intent. DVR type users will probably ship with this enabled
2765          * for movie content management.
2766          *
2767          * Note that for ATA8 we can issue a DCS change and DCS freeze lock
2768          * for this and should do in future but that it is not sufficient as
2769          * DCS is an optional feature set. Thus we also do the software filter
2770          * so that we comply with the TC consortium stated goal that the user
2771          * can turn off TC features of their system.
2772          */
2773         if (tf->command >= 0x5C && tf->command <= 0x5F && !libata_allow_tpm)
2774                 goto invalid_fld;
2775
2776         /* We may not issue DMA commands if no DMA mode is set */
2777         if (tf->protocol == ATA_PROT_DMA && dev->dma_mode == 0)
2778                 goto invalid_fld;
2779
2780         /*
2781          * 12 and 16 byte CDBs use different offsets to
2782          * provide the various register values.
2783          */
2784         if (cdb[0] == ATA_16) {
2785                 /*
2786                  * 16-byte CDB - may contain extended commands.
2787                  *
2788                  * If that is the case, copy the upper byte register values.
2789                  */
2790                 if (cdb[1] & 0x01) {
2791                         tf->hob_feature = cdb[3];
2792                         tf->hob_nsect = cdb[5];
2793                         tf->hob_lbal = cdb[7];
2794                         tf->hob_lbam = cdb[9];
2795                         tf->hob_lbah = cdb[11];
2796                         tf->flags |= ATA_TFLAG_LBA48;
2797                 } else
2798                         tf->flags &= ~ATA_TFLAG_LBA48;
2799
2800                 /*
2801                  * Always copy low byte, device and command registers.
2802                  */
2803                 tf->feature = cdb[4];
2804                 tf->nsect = cdb[6];
2805                 tf->lbal = cdb[8];
2806                 tf->lbam = cdb[10];
2807                 tf->lbah = cdb[12];
2808                 tf->device = cdb[13];
2809                 tf->command = cdb[14];
2810         } else {
2811                 /*
2812                  * 12-byte CDB - incapable of extended commands.
2813                  */
2814                 tf->flags &= ~ATA_TFLAG_LBA48;
2815
2816                 tf->feature = cdb[3];
2817                 tf->nsect = cdb[4];
2818                 tf->lbal = cdb[5];
2819                 tf->lbam = cdb[6];
2820                 tf->lbah = cdb[7];
2821                 tf->device = cdb[8];
2822                 tf->command = cdb[9];
2823         }
2824
2825         /* enforce correct master/slave bit */
2826         tf->device = dev->devno ?
2827                 tf->device | ATA_DEV1 : tf->device & ~ATA_DEV1;
2828
2829         /* sanity check for pio multi commands */
2830         if ((cdb[1] & 0xe0) && !is_multi_taskfile(tf))
2831                 goto invalid_fld;
2832
2833         if (is_multi_taskfile(tf)) {
2834                 unsigned int multi_count = 1 << (cdb[1] >> 5);
2835
2836                 /* compare the passed through multi_count
2837                  * with the cached multi_count of libata
2838                  */
2839                 if (multi_count != dev->multi_count)
2840                         ata_dev_printk(dev, KERN_WARNING,
2841                                        "invalid multi_count %u ignored\n",
2842                                        multi_count);
2843         }
2844
2845         /* READ/WRITE LONG use a non-standard sect_size */
2846         qc->sect_size = ATA_SECT_SIZE;
2847         switch (tf->command) {
2848         case ATA_CMD_READ_LONG:
2849         case ATA_CMD_READ_LONG_ONCE:
2850         case ATA_CMD_WRITE_LONG:
2851         case ATA_CMD_WRITE_LONG_ONCE:
2852                 if (tf->protocol != ATA_PROT_PIO || tf->nsect != 1)
2853                         goto invalid_fld;
2854                 qc->sect_size = scsi_bufflen(scmd);
2855         }
2856
2857         /*
2858          * Filter SET_FEATURES - XFER MODE command -- otherwise,
2859          * SET_FEATURES - XFER MODE must be preceded/succeeded
2860          * by an update to hardware-specific registers for each
2861          * controller (i.e. the reason for ->set_piomode(),
2862          * ->set_dmamode(), and ->post_set_mode() hooks).
2863          */
2864         if ((tf->command == ATA_CMD_SET_FEATURES)
2865          && (tf->feature == SETFEATURES_XFER))
2866                 goto invalid_fld;
2867
2868         /*
2869          * Set flags so that all registers will be written,
2870          * and pass on write indication (used for PIO/DMA
2871          * setup.)
2872          */
2873         tf->flags |= (ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE);
2874
2875         if (scmd->sc_data_direction == DMA_TO_DEVICE)
2876                 tf->flags |= ATA_TFLAG_WRITE;
2877
2878         /*
2879          * Set transfer length.
2880          *
2881          * TODO: find out if we need to do more here to
2882          *       cover scatter/gather case.
2883          */
2884         ata_qc_set_pc_nbytes(qc);
2885
2886         /* request result TF and be quiet about device error */
2887         qc->flags |= ATA_QCFLAG_RESULT_TF | ATA_QCFLAG_QUIET;
2888
2889         return 0;
2890
2891  invalid_fld:
2892         ata_scsi_set_sense(scmd, ILLEGAL_REQUEST, 0x24, 0x00);
2893         /* "Invalid field in cdb" */
2894         return 1;
2895 }
2896
2897 /**
2898  *      ata_get_xlat_func - check if SCSI to ATA translation is possible
2899  *      @dev: ATA device
2900  *      @cmd: SCSI command opcode to consider
2901  *
2902  *      Look up the SCSI command given, and determine whether the
2903  *      SCSI command is to be translated or simulated.
2904  *
2905  *      RETURNS:
2906  *      Pointer to translation function if possible, %NULL if not.
2907  */
2908
2909 static inline ata_xlat_func_t ata_get_xlat_func(struct ata_device *dev, u8 cmd)
2910 {
2911         switch (cmd) {
2912         case READ_6:
2913         case READ_10:
2914         case READ_16:
2915
2916         case WRITE_6:
2917         case WRITE_10:
2918         case WRITE_16:
2919                 return ata_scsi_rw_xlat;
2920
2921         case SYNCHRONIZE_CACHE:
2922                 if (ata_try_flush_cache(dev))
2923                         return ata_scsi_flush_xlat;
2924                 break;
2925
2926         case VERIFY:
2927         case VERIFY_16:
2928                 return ata_scsi_verify_xlat;
2929
2930         case ATA_12:
2931         case ATA_16:
2932                 return ata_scsi_pass_thru;
2933
2934         case START_STOP:
2935                 return ata_scsi_start_stop_xlat;
2936         }
2937
2938         return NULL;
2939 }
2940
2941 /**
2942  *      ata_scsi_dump_cdb - dump SCSI command contents to dmesg
2943  *      @ap: ATA port to which the command was being sent
2944  *      @cmd: SCSI command to dump
2945  *
2946  *      Prints the contents of a SCSI command via printk().
2947  */
2948
2949 static inline void ata_scsi_dump_cdb(struct ata_port *ap,
2950                                      struct scsi_cmnd *cmd)
2951 {
2952 #ifdef ATA_DEBUG
2953         struct scsi_device *scsidev = cmd->device;
2954         u8 *scsicmd = cmd->cmnd;
2955
2956         DPRINTK("CDB (%u:%d,%d,%d) %02x %02x %02x %02x %02x %02x %02x %02x %02x\n",
2957                 ap->print_id,
2958                 scsidev->channel, scsidev->id, scsidev->lun,
2959                 scsicmd[0], scsicmd[1], scsicmd[2], scsicmd[3],
2960                 scsicmd[4], scsicmd[5], scsicmd[6], scsicmd[7],
2961                 scsicmd[8]);
2962 #endif
2963 }
2964
2965 static inline int __ata_scsi_queuecmd(struct scsi_cmnd *scmd,
2966                                       void (*done)(struct scsi_cmnd *),
2967                                       struct ata_device *dev)
2968 {
2969         u8 scsi_op = scmd->cmnd[0];
2970         ata_xlat_func_t xlat_func;
2971         int rc = 0;
2972
2973         if (dev->class == ATA_DEV_ATA) {
2974                 if (unlikely(!scmd->cmd_len || scmd->cmd_len > dev->cdb_len))
2975                         goto bad_cdb_len;
2976
2977                 xlat_func = ata_get_xlat_func(dev, scsi_op);
2978         } else {
2979                 if (unlikely(!scmd->cmd_len))
2980                         goto bad_cdb_len;
2981
2982                 xlat_func = NULL;
2983                 if (likely((scsi_op != ATA_16) || !atapi_passthru16)) {
2984                         /* relay SCSI command to ATAPI device */
2985                         int len = COMMAND_SIZE(scsi_op);
2986                         if (unlikely(len > scmd->cmd_len || len > dev->cdb_len))
2987                                 goto bad_cdb_len;
2988
2989                         xlat_func = atapi_xlat;
2990                 } else {
2991                         /* ATA_16 passthru, treat as an ATA command */
2992                         if (unlikely(scmd->cmd_len > 16))
2993                                 goto bad_cdb_len;
2994
2995                         xlat_func = ata_get_xlat_func(dev, scsi_op);
2996                 }
2997         }
2998
2999         if (xlat_func)
3000                 rc = ata_scsi_translate(dev, scmd, done, xlat_func);
3001         else
3002                 ata_scsi_simulate(dev, scmd, done);
3003
3004         return rc;
3005
3006  bad_cdb_len:
3007         DPRINTK("bad CDB len=%u, scsi_op=0x%02x, max=%u\n",
3008                 scmd->cmd_len, scsi_op, dev->cdb_len);
3009         scmd->result = DID_ERROR << 16;
3010         done(scmd);
3011         return 0;
3012 }
3013
3014 /**
3015  *      ata_scsi_queuecmd - Issue SCSI cdb to libata-managed device
3016  *      @cmd: SCSI command to be sent
3017  *      @done: Completion function, called when command is complete
3018  *
3019  *      In some cases, this function translates SCSI commands into
3020  *      ATA taskfiles, and queues the taskfiles to be sent to
3021  *      hardware.  In other cases, this function simulates a
3022  *      SCSI device by evaluating and responding to certain
3023  *      SCSI commands.  This creates the overall effect of
3024  *      ATA and ATAPI devices appearing as SCSI devices.
3025  *
3026  *      LOCKING:
3027  *      Releases scsi-layer-held lock, and obtains host lock.
3028  *
3029  *      RETURNS:
3030  *      Return value from __ata_scsi_queuecmd() if @cmd can be queued,
3031  *      0 otherwise.
3032  */
3033 int ata_scsi_queuecmd(struct scsi_cmnd *cmd, void (*done)(struct scsi_cmnd *))
3034 {
3035         struct ata_port *ap;
3036         struct ata_device *dev;
3037         struct scsi_device *scsidev = cmd->device;
3038         struct Scsi_Host *shost = scsidev->host;
3039         int rc = 0;
3040
3041         ap = ata_shost_to_port(shost);
3042
3043         spin_unlock(shost->host_lock);
3044         spin_lock(ap->lock);
3045
3046         ata_scsi_dump_cdb(ap, cmd);
3047
3048         dev = ata_scsi_find_dev(ap, scsidev);
3049         if (likely(dev))
3050                 rc = __ata_scsi_queuecmd(cmd, done, dev);
3051         else {
3052                 cmd->result = (DID_BAD_TARGET << 16);
3053                 done(cmd);
3054         }
3055
3056         spin_unlock(ap->lock);
3057         spin_lock(shost->host_lock);
3058         return rc;
3059 }
3060
3061 /**
3062  *      ata_scsi_simulate - simulate SCSI command on ATA device
3063  *      @dev: the target device
3064  *      @cmd: SCSI command being sent to device.
3065  *      @done: SCSI command completion function.
3066  *
3067  *      Interprets and directly executes a select list of SCSI commands
3068  *      that can be handled internally.
3069  *
3070  *      LOCKING:
3071  *      spin_lock_irqsave(host lock)
3072  */
3073
3074 void ata_scsi_simulate(struct ata_device *dev, struct scsi_cmnd *cmd,
3075                       void (*done)(struct scsi_cmnd *))
3076 {
3077         struct ata_scsi_args args;
3078         const u8 *scsicmd = cmd->cmnd;
3079         u8 tmp8;
3080
3081         args.dev = dev;
3082         args.id = dev->id;
3083         args.cmd = cmd;
3084         args.done = done;
3085
3086         switch(scsicmd[0]) {
3087         /* TODO: worth improving? */
3088         case FORMAT_UNIT:
3089                 ata_scsi_invalid_field(cmd, done);
3090                 break;
3091
3092         case INQUIRY:
3093                 if (scsicmd[1] & 2)                /* is CmdDt set?  */
3094                         ata_scsi_invalid_field(cmd, done);
3095                 else if ((scsicmd[1] & 1) == 0)    /* is EVPD clear? */
3096                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_std);
3097                 else switch (scsicmd[2]) {
3098                 case 0x00:
3099                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_00);
3100                         break;
3101                 case 0x80:
3102                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_80);
3103                         break;
3104                 case 0x83:
3105                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_83);
3106                         break;
3107                 case 0x89:
3108                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_89);
3109                         break;
3110                 case 0xb1:
3111                         ata_scsi_rbuf_fill(&args, ata_scsiop_inq_b1);
3112                         break;
3113                 default:
3114                         ata_scsi_invalid_field(cmd, done);
3115                         break;
3116                 }
3117                 break;
3118
3119         case MODE_SENSE:
3120         case MODE_SENSE_10:
3121                 ata_scsi_rbuf_fill(&args, ata_scsiop_mode_sense);
3122                 break;
3123
3124         case MODE_SELECT:       /* unconditionally return */
3125         case MODE_SELECT_10:    /* bad-field-in-cdb */
3126                 ata_scsi_invalid_field(cmd, done);
3127                 break;
3128
3129         case READ_CAPACITY:
3130                 ata_scsi_rbuf_fill(&args, ata_scsiop_read_cap);
3131                 break;
3132
3133         case SERVICE_ACTION_IN:
3134                 if ((scsicmd[1] & 0x1f) == SAI_READ_CAPACITY_16)
3135                         ata_scsi_rbuf_fill(&args, ata_scsiop_read_cap);
3136                 else
3137                         ata_scsi_invalid_field(cmd, done);
3138                 break;
3139
3140         case REPORT_LUNS:
3141                 ata_scsi_rbuf_fill(&args, ata_scsiop_report_luns);
3142                 break;
3143
3144         case REQUEST_SENSE:
3145                 ata_scsi_set_sense(cmd, 0, 0, 0);
3146                 cmd->result = (DRIVER_SENSE << 24);
3147                 done(cmd);
3148                 break;
3149
3150         /* if we reach this, then writeback caching is disabled,
3151          * turning this into a no-op.
3152          */
3153         case SYNCHRONIZE_CACHE:
3154                 /* fall through */
3155
3156         /* no-op's, complete with success */
3157         case REZERO_UNIT:
3158         case SEEK_6:
3159         case SEEK_10:
3160         case TEST_UNIT_READY:
3161                 ata_scsi_rbuf_fill(&args, ata_scsiop_noop);
3162                 break;
3163
3164         case SEND_DIAGNOSTIC:
3165                 tmp8 = scsicmd[1] & ~(1 << 3);
3166                 if ((tmp8 == 0x4) && (!scsicmd[3]) && (!scsicmd[4]))
3167                         ata_scsi_rbuf_fill(&args, ata_scsiop_noop);
3168                 else
3169                         ata_scsi_invalid_field(cmd, done);
3170                 break;
3171
3172         /* all other commands */
3173         default:
3174                 ata_scsi_set_sense(cmd, ILLEGAL_REQUEST, 0x20, 0x0);
3175                 /* "Invalid command operation code" */
3176                 done(cmd);
3177                 break;
3178         }
3179 }
3180
3181 int ata_scsi_add_hosts(struct ata_host *host, struct scsi_host_template *sht)
3182 {
3183         int i, rc;
3184
3185         for (i = 0; i < host->n_ports; i++) {
3186                 struct ata_port *ap = host->ports[i];
3187                 struct Scsi_Host *shost;
3188
3189                 rc = -ENOMEM;
3190                 shost = scsi_host_alloc(sht, sizeof(struct ata_port *));
3191                 if (!shost)
3192                         goto err_alloc;
3193
3194                 *(struct ata_port **)&shost->hostdata[0] = ap;
3195                 ap->scsi_host = shost;
3196
3197                 shost->transportt = &ata_scsi_transport_template;
3198                 shost->unique_id = ap->print_id;
3199                 shost->max_id = 16;
3200                 shost->max_lun = 1;
3201                 shost->max_channel = 1;
3202                 shost->max_cmd_len = 16;
3203
3204                 /* Schedule policy is determined by ->qc_defer()
3205                  * callback and it needs to see every deferred qc.
3206                  * Set host_blocked to 1 to prevent SCSI midlayer from
3207                  * automatically deferring requests.
3208                  */
3209                 shost->max_host_blocked = 1;
3210
3211                 rc = scsi_add_host(ap->scsi_host, ap->host->dev);
3212                 if (rc)
3213                         goto err_add;
3214         }
3215
3216         return 0;
3217
3218  err_add:
3219         scsi_host_put(host->ports[i]->scsi_host);
3220  err_alloc:
3221         while (--i >= 0) {
3222                 struct Scsi_Host *shost = host->ports[i]->scsi_host;
3223
3224                 scsi_remove_host(shost);
3225                 scsi_host_put(shost);
3226         }
3227         return rc;
3228 }
3229
3230 void ata_scsi_scan_host(struct ata_port *ap, int sync)
3231 {
3232         int tries = 5;
3233         struct ata_device *last_failed_dev = NULL;
3234         struct ata_link *link;
3235         struct ata_device *dev;
3236
3237         if (ap->flags & ATA_FLAG_DISABLED)
3238                 return;
3239
3240  repeat:
3241         ata_port_for_each_link(link, ap) {
3242                 ata_link_for_each_dev(dev, link) {
3243                         struct scsi_device *sdev;
3244                         int channel = 0, id = 0;
3245
3246                         if (!ata_dev_enabled(dev) || dev->sdev)
3247                                 continue;
3248
3249                         if (ata_is_host_link(link))
3250                                 id = dev->devno;
3251                         else
3252                                 channel = link->pmp;
3253
3254                         sdev = __scsi_add_device(ap->scsi_host, channel, id, 0,
3255                                                  NULL);
3256                         if (!IS_ERR(sdev)) {
3257                                 dev->sdev = sdev;
3258                                 scsi_device_put(sdev);
3259                         }
3260                 }
3261         }
3262
3263         /* If we scanned while EH was in progress or allocation
3264          * failure occurred, scan would have failed silently.  Check
3265          * whether all devices are attached.
3266          */
3267         ata_port_for_each_link(link, ap) {
3268                 ata_link_for_each_dev(dev, link) {
3269                         if (ata_dev_enabled(dev) && !dev->sdev)
3270                                 goto exit_loop;
3271                 }
3272         }
3273  exit_loop:
3274         if (!link)
3275                 return;
3276
3277         /* we're missing some SCSI devices */
3278         if (sync) {
3279                 /* If caller requested synchrnous scan && we've made
3280                  * any progress, sleep briefly and repeat.
3281                  */
3282                 if (dev != last_failed_dev) {
3283                         msleep(100);
3284                         last_failed_dev = dev;
3285                         goto repeat;
3286                 }
3287
3288                 /* We might be failing to detect boot device, give it
3289                  * a few more chances.
3290                  */
3291                 if (--tries) {
3292                         msleep(100);
3293                         goto repeat;
3294                 }
3295
3296                 ata_port_printk(ap, KERN_ERR, "WARNING: synchronous SCSI scan "
3297                                 "failed without making any progress,\n"
3298                                 "                  switching to async\n");
3299         }
3300
3301         queue_delayed_work(ata_aux_wq, &ap->hotplug_task,
3302                            round_jiffies_relative(HZ));
3303 }
3304
3305 /**
3306  *      ata_scsi_offline_dev - offline attached SCSI device
3307  *      @dev: ATA device to offline attached SCSI device for
3308  *
3309  *      This function is called from ata_eh_hotplug() and responsible
3310  *      for taking the SCSI device attached to @dev offline.  This
3311  *      function is called with host lock which protects dev->sdev
3312  *      against clearing.
3313  *
3314  *      LOCKING:
3315  *      spin_lock_irqsave(host lock)
3316  *
3317  *      RETURNS:
3318  *      1 if attached SCSI device exists, 0 otherwise.
3319  */
3320 int ata_scsi_offline_dev(struct ata_device *dev)
3321 {
3322         if (dev->sdev) {
3323                 scsi_device_set_state(dev->sdev, SDEV_OFFLINE);
3324                 return 1;
3325         }
3326         return 0;
3327 }
3328
3329 /**
3330  *      ata_scsi_remove_dev - remove attached SCSI device
3331  *      @dev: ATA device to remove attached SCSI device for
3332  *
3333  *      This function is called from ata_eh_scsi_hotplug() and
3334  *      responsible for removing the SCSI device attached to @dev.
3335  *
3336  *      LOCKING:
3337  *      Kernel thread context (may sleep).
3338  */
3339 static void ata_scsi_remove_dev(struct ata_device *dev)
3340 {
3341         struct ata_port *ap = dev->link->ap;
3342         struct scsi_device *sdev;
3343         unsigned long flags;
3344
3345         /* Alas, we need to grab scan_mutex to ensure SCSI device
3346          * state doesn't change underneath us and thus
3347          * scsi_device_get() always succeeds.  The mutex locking can
3348          * be removed if there is __scsi_device_get() interface which
3349          * increments reference counts regardless of device state.
3350          */
3351         mutex_lock(&ap->scsi_host->scan_mutex);
3352         spin_lock_irqsave(ap->lock, flags);
3353
3354         /* clearing dev->sdev is protected by host lock */
3355         sdev = dev->sdev;
3356         dev->sdev = NULL;
3357
3358         if (sdev) {
3359                 /* If user initiated unplug races with us, sdev can go
3360                  * away underneath us after the host lock and
3361                  * scan_mutex are released.  Hold onto it.
3362                  */
3363                 if (scsi_device_get(sdev) == 0) {
3364                         /* The following ensures the attached sdev is
3365                          * offline on return from ata_scsi_offline_dev()
3366                          * regardless it wins or loses the race
3367                          * against this function.
3368                          */
3369                         scsi_device_set_state(sdev, SDEV_OFFLINE);
3370                 } else {
3371                         WARN_ON(1);
3372                         sdev = NULL;
3373                 }
3374         }
3375
3376         spin_unlock_irqrestore(ap->lock, flags);
3377         mutex_unlock(&ap->scsi_host->scan_mutex);
3378
3379         if (sdev) {
3380                 ata_dev_printk(dev, KERN_INFO, "detaching (SCSI %s)\n",
3381                                sdev->sdev_gendev.bus_id);
3382
3383                 scsi_remove_device(sdev);
3384                 scsi_device_put(sdev);
3385         }
3386 }
3387
3388 static void ata_scsi_handle_link_detach(struct ata_link *link)
3389 {
3390         struct ata_port *ap = link->ap;
3391         struct ata_device *dev;
3392
3393         ata_link_for_each_dev(dev, link) {
3394                 unsigned long flags;
3395
3396                 if (!(dev->flags & ATA_DFLAG_DETACHED))
3397                         continue;
3398
3399                 spin_lock_irqsave(ap->lock, flags);
3400                 dev->flags &= ~ATA_DFLAG_DETACHED;
3401                 spin_unlock_irqrestore(ap->lock, flags);
3402
3403                 ata_scsi_remove_dev(dev);
3404         }
3405 }
3406
3407 /**
3408  *      ata_scsi_media_change_notify - send media change event
3409  *      @dev: Pointer to the disk device with media change event
3410  *
3411  *      Tell the block layer to send a media change notification
3412  *      event.
3413  *
3414  *      LOCKING:
3415  *      spin_lock_irqsave(host lock)
3416  */
3417 void ata_scsi_media_change_notify(struct ata_device *dev)
3418 {
3419         if (dev->sdev)
3420                 sdev_evt_send_simple(dev->sdev, SDEV_EVT_MEDIA_CHANGE,
3421                                      GFP_ATOMIC);
3422 }
3423
3424 /**
3425  *      ata_scsi_hotplug - SCSI part of hotplug
3426  *      @work: Pointer to ATA port to perform SCSI hotplug on
3427  *
3428  *      Perform SCSI part of hotplug.  It's executed from a separate
3429  *      workqueue after EH completes.  This is necessary because SCSI
3430  *      hot plugging requires working EH and hot unplugging is
3431  *      synchronized with hot plugging with a mutex.
3432  *
3433  *      LOCKING:
3434  *      Kernel thread context (may sleep).
3435  */
3436 void ata_scsi_hotplug(struct work_struct *work)
3437 {
3438         struct ata_port *ap =
3439                 container_of(work, struct ata_port, hotplug_task.work);
3440         int i;
3441
3442         if (ap->pflags & ATA_PFLAG_UNLOADING) {
3443                 DPRINTK("ENTER/EXIT - unloading\n");
3444                 return;
3445         }
3446
3447         DPRINTK("ENTER\n");
3448
3449         /* Unplug detached devices.  We cannot use link iterator here
3450          * because PMP links have to be scanned even if PMP is
3451          * currently not attached.  Iterate manually.
3452          */
3453         ata_scsi_handle_link_detach(&ap->link);
3454         if (ap->pmp_link)
3455                 for (i = 0; i < SATA_PMP_MAX_PORTS; i++)
3456                         ata_scsi_handle_link_detach(&ap->pmp_link[i]);
3457
3458         /* scan for new ones */
3459         ata_scsi_scan_host(ap, 0);
3460
3461         DPRINTK("EXIT\n");
3462 }
3463
3464 /**
3465  *      ata_scsi_user_scan - indication for user-initiated bus scan
3466  *      @shost: SCSI host to scan
3467  *      @channel: Channel to scan
3468  *      @id: ID to scan
3469  *      @lun: LUN to scan
3470  *
3471  *      This function is called when user explicitly requests bus
3472  *      scan.  Set probe pending flag and invoke EH.
3473  *
3474  *      LOCKING:
3475  *      SCSI layer (we don't care)
3476  *
3477  *      RETURNS:
3478  *      Zero.
3479  */
3480 static int ata_scsi_user_scan(struct Scsi_Host *shost, unsigned int channel,
3481                               unsigned int id, unsigned int lun)
3482 {
3483         struct ata_port *ap = ata_shost_to_port(shost);
3484         unsigned long flags;
3485         int devno, rc = 0;
3486
3487         if (!ap->ops->error_handler)
3488                 return -EOPNOTSUPP;
3489
3490         if (lun != SCAN_WILD_CARD && lun)
3491                 return -EINVAL;
3492
3493         if (!sata_pmp_attached(ap)) {
3494                 if (channel != SCAN_WILD_CARD && channel)
3495                         return -EINVAL;
3496                 devno = id;
3497         } else {
3498                 if (id != SCAN_WILD_CARD && id)
3499                         return -EINVAL;
3500                 devno = channel;
3501         }
3502
3503         spin_lock_irqsave(ap->lock, flags);
3504
3505         if (devno == SCAN_WILD_CARD) {
3506                 struct ata_link *link;
3507
3508                 ata_port_for_each_link(link, ap) {
3509                         struct ata_eh_info *ehi = &link->eh_info;
3510                         ehi->probe_mask |= ATA_ALL_DEVICES;
3511                         ehi->action |= ATA_EH_RESET;
3512                 }
3513         } else {
3514                 struct ata_device *dev = ata_find_dev(ap, devno);
3515
3516                 if (dev) {
3517                         struct ata_eh_info *ehi = &dev->link->eh_info;
3518                         ehi->probe_mask |= 1 << dev->devno;
3519                         ehi->action |= ATA_EH_RESET;
3520                 } else
3521                         rc = -EINVAL;
3522         }
3523
3524         if (rc == 0) {
3525                 ata_port_schedule_eh(ap);
3526                 spin_unlock_irqrestore(ap->lock, flags);
3527                 ata_port_wait_eh(ap);
3528         } else
3529                 spin_unlock_irqrestore(ap->lock, flags);
3530
3531         return rc;
3532 }
3533
3534 /**
3535  *      ata_scsi_dev_rescan - initiate scsi_rescan_device()
3536  *      @work: Pointer to ATA port to perform scsi_rescan_device()
3537  *
3538  *      After ATA pass thru (SAT) commands are executed successfully,
3539  *      libata need to propagate the changes to SCSI layer.  This
3540  *      function must be executed from ata_aux_wq such that sdev
3541  *      attach/detach don't race with rescan.
3542  *
3543  *      LOCKING:
3544  *      Kernel thread context (may sleep).
3545  */
3546 void ata_scsi_dev_rescan(struct work_struct *work)
3547 {
3548         struct ata_port *ap =
3549                 container_of(work, struct ata_port, scsi_rescan_task);
3550         struct ata_link *link;
3551         struct ata_device *dev;
3552         unsigned long flags;
3553
3554         spin_lock_irqsave(ap->lock, flags);
3555
3556         ata_port_for_each_link(link, ap) {
3557                 ata_link_for_each_dev(dev, link) {
3558                         struct scsi_device *sdev = dev->sdev;
3559
3560                         if (!ata_dev_enabled(dev) || !sdev)
3561                                 continue;
3562                         if (scsi_device_get(sdev))
3563                                 continue;
3564
3565                         spin_unlock_irqrestore(ap->lock, flags);
3566                         scsi_rescan_device(&(sdev->sdev_gendev));
3567                         scsi_device_put(sdev);
3568                         spin_lock_irqsave(ap->lock, flags);
3569                 }
3570         }
3571
3572         spin_unlock_irqrestore(ap->lock, flags);
3573 }
3574
3575 /**
3576  *      ata_sas_port_alloc - Allocate port for a SAS attached SATA device
3577  *      @host: ATA host container for all SAS ports
3578  *      @port_info: Information from low-level host driver
3579  *      @shost: SCSI host that the scsi device is attached to
3580  *
3581  *      LOCKING:
3582  *      PCI/etc. bus probe sem.
3583  *
3584  *      RETURNS:
3585  *      ata_port pointer on success / NULL on failure.
3586  */
3587
3588 struct ata_port *ata_sas_port_alloc(struct ata_host *host,
3589                                     struct ata_port_info *port_info,
3590                                     struct Scsi_Host *shost)
3591 {
3592         struct ata_port *ap;
3593
3594         ap = ata_port_alloc(host);
3595         if (!ap)
3596                 return NULL;
3597
3598         ap->port_no = 0;
3599         ap->lock = shost->host_lock;
3600         ap->pio_mask = port_info->pio_mask;
3601         ap->mwdma_mask = port_info->mwdma_mask;
3602         ap->udma_mask = port_info->udma_mask;
3603         ap->flags |= port_info->flags;
3604         ap->ops = port_info->port_ops;
3605         ap->cbl = ATA_CBL_SATA;
3606
3607         return ap;
3608 }
3609 EXPORT_SYMBOL_GPL(ata_sas_port_alloc);
3610
3611 /**
3612  *      ata_sas_port_start - Set port up for dma.
3613  *      @ap: Port to initialize
3614  *
3615  *      Called just after data structures for each port are
3616  *      initialized.
3617  *
3618  *      May be used as the port_start() entry in ata_port_operations.
3619  *
3620  *      LOCKING:
3621  *      Inherited from caller.
3622  */
3623 int ata_sas_port_start(struct ata_port *ap)
3624 {
3625         return 0;
3626 }
3627 EXPORT_SYMBOL_GPL(ata_sas_port_start);
3628
3629 /**
3630  *      ata_port_stop - Undo ata_sas_port_start()
3631  *      @ap: Port to shut down
3632  *
3633  *      May be used as the port_stop() entry in ata_port_operations.
3634  *
3635  *      LOCKING:
3636  *      Inherited from caller.
3637  */
3638
3639 void ata_sas_port_stop(struct ata_port *ap)
3640 {
3641 }
3642 EXPORT_SYMBOL_GPL(ata_sas_port_stop);
3643
3644 /**
3645  *      ata_sas_port_init - Initialize a SATA device
3646  *      @ap: SATA port to initialize
3647  *
3648  *      LOCKING:
3649  *      PCI/etc. bus probe sem.
3650  *
3651  *      RETURNS:
3652  *      Zero on success, non-zero on error.
3653  */
3654
3655 int ata_sas_port_init(struct ata_port *ap)
3656 {
3657         int rc = ap->ops->port_start(ap);
3658
3659         if (!rc) {
3660                 ap->print_id = ata_print_id++;
3661                 rc = ata_bus_probe(ap);
3662         }
3663
3664         return rc;
3665 }
3666 EXPORT_SYMBOL_GPL(ata_sas_port_init);
3667
3668 /**
3669  *      ata_sas_port_destroy - Destroy a SATA port allocated by ata_sas_port_alloc
3670  *      @ap: SATA port to destroy
3671  *
3672  */
3673
3674 void ata_sas_port_destroy(struct ata_port *ap)
3675 {
3676         if (ap->ops->port_stop)
3677                 ap->ops->port_stop(ap);
3678         kfree(ap);
3679 }
3680 EXPORT_SYMBOL_GPL(ata_sas_port_destroy);
3681
3682 /**
3683  *      ata_sas_slave_configure - Default slave_config routine for libata devices
3684  *      @sdev: SCSI device to configure
3685  *      @ap: ATA port to which SCSI device is attached
3686  *
3687  *      RETURNS:
3688  *      Zero.
3689  */
3690
3691 int ata_sas_slave_configure(struct scsi_device *sdev, struct ata_port *ap)
3692 {
3693         ata_scsi_sdev_config(sdev);
3694         ata_scsi_dev_config(sdev, ap->link.device);
3695         return 0;
3696 }
3697 EXPORT_SYMBOL_GPL(ata_sas_slave_configure);
3698
3699 /**
3700  *      ata_sas_queuecmd - Issue SCSI cdb to libata-managed device
3701  *      @cmd: SCSI command to be sent
3702  *      @done: Completion function, called when command is complete
3703  *      @ap:    ATA port to which the command is being sent
3704  *
3705  *      RETURNS:
3706  *      Return value from __ata_scsi_queuecmd() if @cmd can be queued,
3707  *      0 otherwise.
3708  */
3709
3710 int ata_sas_queuecmd(struct scsi_cmnd *cmd, void (*done)(struct scsi_cmnd *),
3711                      struct ata_port *ap)
3712 {
3713         int rc = 0;
3714
3715         ata_scsi_dump_cdb(ap, cmd);
3716
3717         if (likely(ata_dev_enabled(ap->link.device)))
3718                 rc = __ata_scsi_queuecmd(cmd, done, ap->link.device);
3719         else {
3720                 cmd->result = (DID_BAD_TARGET << 16);
3721                 done(cmd);
3722         }
3723         return rc;
3724 }
3725 EXPORT_SYMBOL_GPL(ata_sas_queuecmd);