Merge branch 'core/xen' into x86/xen
[safe/jmp/linux-2.6] / drivers / net / mv643xx_eth.c
index 3c85918..0a18b9e 100644 (file)
@@ -55,7 +55,7 @@
 #include <asm/system.h>
 
 static char mv643xx_eth_driver_name[] = "mv643xx_eth";
-static char mv643xx_eth_driver_version[] = "1.0";
+static char mv643xx_eth_driver_version[] = "1.3";
 
 #define MV643XX_ETH_CHECKSUM_OFFLOAD_TX
 #define MV643XX_ETH_NAPI
@@ -90,12 +90,22 @@ static char mv643xx_eth_driver_version[] = "1.0";
 #define PORT_SERIAL_CONTROL(p)         (0x043c + ((p) << 10))
 #define PORT_STATUS(p)                 (0x0444 + ((p) << 10))
 #define  TX_FIFO_EMPTY                 0x00000400
+#define  TX_IN_PROGRESS                        0x00000080
+#define  PORT_SPEED_MASK               0x00000030
+#define  PORT_SPEED_1000               0x00000010
+#define  PORT_SPEED_100                        0x00000020
+#define  PORT_SPEED_10                 0x00000000
+#define  FLOW_CONTROL_ENABLED          0x00000008
+#define  FULL_DUPLEX                   0x00000004
+#define  LINK_UP                       0x00000002
 #define TXQ_COMMAND(p)                 (0x0448 + ((p) << 10))
 #define TXQ_FIX_PRIO_CONF(p)           (0x044c + ((p) << 10))
 #define TX_BW_RATE(p)                  (0x0450 + ((p) << 10))
 #define TX_BW_MTU(p)                   (0x0458 + ((p) << 10))
 #define TX_BW_BURST(p)                 (0x045c + ((p) << 10))
 #define INT_CAUSE(p)                   (0x0460 + ((p) << 10))
+#define  INT_TX_END_0                  0x00080000
+#define  INT_TX_END                    0x07f80000
 #define  INT_RX                                0x0007fbfc
 #define  INT_EXT                       0x00000002
 #define INT_CAUSE_EXT(p)               (0x0464 + ((p) << 10))
@@ -103,16 +113,20 @@ static char mv643xx_eth_driver_version[] = "1.0";
 #define  INT_EXT_PHY                   0x00010000
 #define  INT_EXT_TX_ERROR_0            0x00000100
 #define  INT_EXT_TX_0                  0x00000001
-#define  INT_EXT_TX                    0x00000101
+#define  INT_EXT_TX                    0x0000ffff
 #define INT_MASK(p)                    (0x0468 + ((p) << 10))
 #define INT_MASK_EXT(p)                        (0x046c + ((p) << 10))
 #define TX_FIFO_URGENT_THRESHOLD(p)    (0x0474 + ((p) << 10))
+#define TXQ_FIX_PRIO_CONF_MOVED(p)     (0x04dc + ((p) << 10))
+#define TX_BW_RATE_MOVED(p)            (0x04e0 + ((p) << 10))
+#define TX_BW_MTU_MOVED(p)             (0x04e8 + ((p) << 10))
+#define TX_BW_BURST_MOVED(p)           (0x04ec + ((p) << 10))
 #define RXQ_CURRENT_DESC_PTR(p, q)     (0x060c + ((p) << 10) + ((q) << 4))
 #define RXQ_COMMAND(p)                 (0x0680 + ((p) << 10))
-#define TXQ_CURRENT_DESC_PTR(p)                (0x06c0 + ((p) << 10))
-#define TXQ_BW_TOKENS(p)               (0x0700 + ((p) << 10))
-#define TXQ_BW_CONF(p)                 (0x0704 + ((p) << 10))
-#define TXQ_BW_WRR_CONF(p)             (0x0708 + ((p) << 10))
+#define TXQ_CURRENT_DESC_PTR(p, q)     (0x06c0 + ((p) << 10) + ((q) << 2))
+#define TXQ_BW_TOKENS(p, q)            (0x0700 + ((p) << 10) + ((q) << 4))
+#define TXQ_BW_CONF(p, q)              (0x0704 + ((p) << 10) + ((q) << 4))
+#define TXQ_BW_WRR_CONF(p, q)          (0x0708 + ((p) << 10) + ((q) << 4))
 #define MIB_COUNTERS(p)                        (0x1000 + ((p) << 7))
 #define SPECIAL_MCAST_TABLE(p)         (0x1400 + ((p) << 10))
 #define OTHER_MCAST_TABLE(p)           (0x1500 + ((p) << 10))
@@ -122,21 +136,21 @@ static char mv643xx_eth_driver_version[] = "1.0";
 /*
  * SDMA configuration register.
  */
-#define RX_BURST_SIZE_4_64BIT          (2 << 1)
+#define RX_BURST_SIZE_16_64BIT         (4 << 1)
 #define BLM_RX_NO_SWAP                 (1 << 4)
 #define BLM_TX_NO_SWAP                 (1 << 5)
-#define TX_BURST_SIZE_4_64BIT          (2 << 22)
+#define TX_BURST_SIZE_16_64BIT         (4 << 22)
 
 #if defined(__BIG_ENDIAN)
 #define PORT_SDMA_CONFIG_DEFAULT_VALUE         \
-               RX_BURST_SIZE_4_64BIT   |       \
-               TX_BURST_SIZE_4_64BIT
+               RX_BURST_SIZE_16_64BIT  |       \
+               TX_BURST_SIZE_16_64BIT
 #elif defined(__LITTLE_ENDIAN)
 #define PORT_SDMA_CONFIG_DEFAULT_VALUE         \
-               RX_BURST_SIZE_4_64BIT   |       \
+               RX_BURST_SIZE_16_64BIT  |       \
                BLM_RX_NO_SWAP          |       \
                BLM_TX_NO_SWAP          |       \
-               TX_BURST_SIZE_4_64BIT
+               TX_BURST_SIZE_16_64BIT
 #else
 #error One of __BIG_ENDIAN or __LITTLE_ENDIAN must be defined
 #endif
@@ -148,9 +162,7 @@ static char mv643xx_eth_driver_version[] = "1.0";
 #define SET_MII_SPEED_TO_100                   (1 << 24)
 #define SET_GMII_SPEED_TO_1000                 (1 << 23)
 #define SET_FULL_DUPLEX_MODE                   (1 << 21)
-#define MAX_RX_PACKET_1522BYTE                 (1 << 17)
 #define MAX_RX_PACKET_9700BYTE                 (5 << 17)
-#define MAX_RX_PACKET_MASK                     (7 << 17)
 #define DISABLE_AUTO_NEG_SPEED_GMII            (1 << 13)
 #define DO_NOT_FORCE_LINK_FAIL                 (1 << 10)
 #define SERIAL_PORT_CONTROL_RESERVED           (1 << 9)
@@ -223,6 +235,8 @@ struct tx_desc {
 #define GEN_IP_V4_CHECKSUM             0x00040000
 #define GEN_TCP_UDP_CHECKSUM           0x00020000
 #define UDP_FRAME                      0x00010000
+#define MAC_HDR_EXTRA_4_BYTES          0x00008000
+#define MAC_HDR_EXTRA_8_BYTES          0x00000200
 
 #define TX_IHL_SHIFT                   11
 
@@ -248,6 +262,8 @@ struct mv643xx_eth_shared_private {
         * Hardware-specific parameters.
         */
        unsigned int t_clk;
+       int extended_rx_coal_limit;
+       int tx_bw_control_moved;
 };
 
 
@@ -303,6 +319,8 @@ struct rx_queue {
 };
 
 struct tx_queue {
+       int index;
+
        int tx_ring_size;
 
        int tx_desc_count;
@@ -347,7 +365,9 @@ struct mv643xx_eth_private {
        int default_tx_ring_size;
        unsigned long tx_desc_sram_addr;
        int tx_desc_sram_size;
-       struct tx_queue txq[1];
+       u8 txq_mask;
+       int txq_primary;
+       struct tx_queue txq[8];
 #ifdef MV643XX_ETH_TX_FAST_REFILL
        int tx_clean_threshold;
 #endif
@@ -374,7 +394,7 @@ static struct mv643xx_eth_private *rxq_to_mp(struct rx_queue *rxq)
 
 static struct mv643xx_eth_private *txq_to_mp(struct tx_queue *txq)
 {
-       return container_of(txq, struct mv643xx_eth_private, txq[0]);
+       return container_of(txq, struct mv643xx_eth_private, txq[txq->index]);
 }
 
 static void rxq_enable(struct rx_queue *rxq)
@@ -393,16 +413,27 @@ static void rxq_disable(struct rx_queue *rxq)
                udelay(10);
 }
 
+static void txq_reset_hw_ptr(struct tx_queue *txq)
+{
+       struct mv643xx_eth_private *mp = txq_to_mp(txq);
+       int off = TXQ_CURRENT_DESC_PTR(mp->port_num, txq->index);
+       u32 addr;
+
+       addr = (u32)txq->tx_desc_dma;
+       addr += txq->tx_curr_desc * sizeof(struct tx_desc);
+       wrl(mp, off, addr);
+}
+
 static void txq_enable(struct tx_queue *txq)
 {
        struct mv643xx_eth_private *mp = txq_to_mp(txq);
-       wrl(mp, TXQ_COMMAND(mp->port_num), 1);
+       wrl(mp, TXQ_COMMAND(mp->port_num), 1 << txq->index);
 }
 
 static void txq_disable(struct tx_queue *txq)
 {
        struct mv643xx_eth_private *mp = txq_to_mp(txq);
-       u8 mask = 1;
+       u8 mask = 1 << txq->index;
 
        wrl(mp, TXQ_COMMAND(mp->port_num), mask << 8);
        while (rdl(mp, TXQ_COMMAND(mp->port_num)) & mask)
@@ -413,6 +444,12 @@ static void __txq_maybe_wake(struct tx_queue *txq)
 {
        struct mv643xx_eth_private *mp = txq_to_mp(txq);
 
+       /*
+        * netif_{stop,wake}_queue() flow control only applies to
+        * the primary queue.
+        */
+       BUG_ON(txq->index != mp->txq_primary);
+
        if (txq->tx_ring_size - txq->tx_desc_count >= MAX_DESCS_PER_SKB)
                netif_wake_queue(mp->dev);
 }
@@ -437,11 +474,19 @@ static void rxq_refill(struct rx_queue *rxq)
                /*
                 * Reserve 2+14 bytes for an ethernet header (the
                 * hardware automatically prepends 2 bytes of dummy
-                * data to each received packet), 4 bytes for a VLAN
-                * header, and 4 bytes for the trailing FCS -- 24
-                * bytes total.
+                * data to each received packet), 16 bytes for up to
+                * four VLAN tags, and 4 bytes for the trailing FCS
+                * -- 36 bytes total.
+                */
+               skb_size = mp->dev->mtu + 36;
+
+               /*
+                * Make sure that the skb size is a multiple of 8
+                * bytes, as the lower three bits of the receive
+                * descriptor's buffer size field are ignored by
+                * the hardware.
                 */
-               skb_size = mp->dev->mtu + 24;
+               skb_size = (skb_size + 7) & ~7;
 
                skb = dev_alloc_skb(skb_size + dma_get_cache_alignment() - 1);
                if (skb == NULL)
@@ -472,10 +517,8 @@ static void rxq_refill(struct rx_queue *rxq)
                skb_reserve(skb, 2);
        }
 
-       if (rxq->rx_desc_count == 0) {
-               rxq->rx_oom.expires = jiffies + (HZ / 10);
-               add_timer(&rxq->rx_oom);
-       }
+       if (rxq->rx_desc_count != rxq->rx_ring_size)
+               mod_timer(&rxq->rx_oom, jiffies + (HZ / 10));
 
        spin_unlock_irqrestore(&mp->lock, flags);
 }
@@ -492,7 +535,7 @@ static int rxq_process(struct rx_queue *rxq, int budget)
        int rx;
 
        rx = 0;
-       while (rx < budget) {
+       while (rx < budget && rxq->rx_desc_count) {
                struct rx_desc *rx_desc;
                unsigned int cmd_sts;
                struct sk_buff *skb;
@@ -517,7 +560,7 @@ static int rxq_process(struct rx_queue *rxq, int budget)
                spin_unlock_irqrestore(&mp->lock, flags);
 
                dma_unmap_single(NULL, rx_desc->buf_ptr + 2,
-                                mp->dev->mtu + 24, DMA_FROM_DEVICE);
+                                rx_desc->buf_size, DMA_FROM_DEVICE);
                rxq->rx_desc_count--;
                rx++;
 
@@ -593,8 +636,16 @@ static int mv643xx_eth_poll(struct napi_struct *napi, int budget)
 
 #ifdef MV643XX_ETH_TX_FAST_REFILL
        if (++mp->tx_clean_threshold > 5) {
-               txq_reclaim(mp->txq, 0);
                mp->tx_clean_threshold = 0;
+               for (i = 0; i < 8; i++)
+                       if (mp->txq_mask & (1 << i))
+                               txq_reclaim(mp->txq + i, 0);
+
+               if (netif_carrier_ok(mp->dev)) {
+                       spin_lock_irq(&mp->lock);
+                       __txq_maybe_wake(mp->txq + mp->txq_primary);
+                       spin_unlock_irq(&mp->lock);
+               }
        }
 #endif
 
@@ -605,9 +656,7 @@ static int mv643xx_eth_poll(struct napi_struct *napi, int budget)
 
        if (rx < budget) {
                netif_rx_complete(mp->dev, napi);
-               wrl(mp, INT_CAUSE(mp->port_num), 0);
-               wrl(mp, INT_CAUSE_EXT(mp->port_num), 0);
-               wrl(mp, INT_MASK(mp->port_num), INT_RX | INT_EXT);
+               wrl(mp, INT_MASK(mp->port_num), INT_TX_END | INT_RX | INT_EXT);
        }
 
        return rx;
@@ -687,6 +736,7 @@ static inline __be16 sum16_as_be(__sum16 sum)
 
 static void txq_submit_skb(struct tx_queue *txq, struct sk_buff *skb)
 {
+       struct mv643xx_eth_private *mp = txq_to_mp(txq);
        int nr_frags = skb_shinfo(skb)->nr_frags;
        int tx_index;
        struct tx_desc *desc;
@@ -713,12 +763,36 @@ static void txq_submit_skb(struct tx_queue *txq, struct sk_buff *skb)
        desc->buf_ptr = dma_map_single(NULL, skb->data, length, DMA_TO_DEVICE);
 
        if (skb->ip_summed == CHECKSUM_PARTIAL) {
-               BUG_ON(skb->protocol != htons(ETH_P_IP));
+               int mac_hdr_len;
+
+               BUG_ON(skb->protocol != htons(ETH_P_IP) &&
+                      skb->protocol != htons(ETH_P_8021Q));
 
                cmd_sts |= GEN_TCP_UDP_CHECKSUM |
                           GEN_IP_V4_CHECKSUM   |
                           ip_hdr(skb)->ihl << TX_IHL_SHIFT;
 
+               mac_hdr_len = (void *)ip_hdr(skb) - (void *)skb->data;
+               switch (mac_hdr_len - ETH_HLEN) {
+               case 0:
+                       break;
+               case 4:
+                       cmd_sts |= MAC_HDR_EXTRA_4_BYTES;
+                       break;
+               case 8:
+                       cmd_sts |= MAC_HDR_EXTRA_8_BYTES;
+                       break;
+               case 12:
+                       cmd_sts |= MAC_HDR_EXTRA_4_BYTES;
+                       cmd_sts |= MAC_HDR_EXTRA_8_BYTES;
+                       break;
+               default:
+                       if (net_ratelimit())
+                               dev_printk(KERN_ERR, &txq_to_mp(txq)->dev->dev,
+                                  "mac header length is %d?!\n", mac_hdr_len);
+                       break;
+               }
+
                switch (ip_hdr(skb)->protocol) {
                case IPPROTO_UDP:
                        cmd_sts |= UDP_FRAME;
@@ -740,6 +814,10 @@ static void txq_submit_skb(struct tx_queue *txq, struct sk_buff *skb)
        wmb();
        desc->cmd_sts = cmd_sts;
 
+       /* clear TX_END interrupt status */
+       wrl(mp, INT_CAUSE(mp->port_num), ~(INT_TX_END_0 << txq->index));
+       rdl(mp, INT_CAUSE(mp->port_num));
+
        /* ensure all descriptors are written before poking hardware */
        wmb();
        txq_enable(txq);
@@ -754,8 +832,6 @@ static int mv643xx_eth_xmit(struct sk_buff *skb, struct net_device *dev)
        struct tx_queue *txq;
        unsigned long flags;
 
-       BUG_ON(netif_queue_stopped(dev));
-
        if (has_tiny_unaligned_frags(skb) && __skb_linearize(skb)) {
                stats->tx_dropped++;
                dev_printk(KERN_DEBUG, &dev->dev,
@@ -766,13 +842,15 @@ static int mv643xx_eth_xmit(struct sk_buff *skb, struct net_device *dev)
 
        spin_lock_irqsave(&mp->lock, flags);
 
-       txq = mp->txq;
+       txq = mp->txq + mp->txq_primary;
 
        if (txq->tx_ring_size - txq->tx_desc_count < MAX_DESCS_PER_SKB) {
-               printk(KERN_ERR "%s: transmit with queue full\n", dev->name);
-               netif_stop_queue(dev);
                spin_unlock_irqrestore(&mp->lock, flags);
-               return NETDEV_TX_BUSY;
+               if (txq->index == mp->txq_primary && net_ratelimit())
+                       dev_printk(KERN_ERR, &dev->dev,
+                                  "primary tx queue full?!\n");
+               kfree_skb(skb);
+               return NETDEV_TX_OK;
        }
 
        txq_submit_skb(txq, skb);
@@ -780,8 +858,13 @@ static int mv643xx_eth_xmit(struct sk_buff *skb, struct net_device *dev)
        stats->tx_packets++;
        dev->trans_start = jiffies;
 
-       if (txq->tx_ring_size - txq->tx_desc_count < MAX_DESCS_PER_SKB)
-               netif_stop_queue(dev);
+       if (txq->index == mp->txq_primary) {
+               int entries_left;
+
+               entries_left = txq->tx_ring_size - txq->tx_desc_count;
+               if (entries_left < MAX_DESCS_PER_SKB)
+                       netif_stop_queue(dev);
+       }
 
        spin_unlock_irqrestore(&mp->lock, flags);
 
@@ -812,9 +895,15 @@ static void tx_set_rate(struct mv643xx_eth_private *mp, int rate, int burst)
        if (bucket_size > 65535)
                bucket_size = 65535;
 
-       wrl(mp, TX_BW_RATE(mp->port_num), token_rate);
-       wrl(mp, TX_BW_MTU(mp->port_num), mtu);
-       wrl(mp, TX_BW_BURST(mp->port_num), bucket_size);
+       if (mp->shared->tx_bw_control_moved) {
+               wrl(mp, TX_BW_RATE_MOVED(mp->port_num), token_rate);
+               wrl(mp, TX_BW_MTU_MOVED(mp->port_num), mtu);
+               wrl(mp, TX_BW_BURST_MOVED(mp->port_num), bucket_size);
+       } else {
+               wrl(mp, TX_BW_RATE(mp->port_num), token_rate);
+               wrl(mp, TX_BW_MTU(mp->port_num), mtu);
+               wrl(mp, TX_BW_BURST(mp->port_num), bucket_size);
+       }
 }
 
 static void txq_set_rate(struct tx_queue *txq, int rate, int burst)
@@ -831,8 +920,8 @@ static void txq_set_rate(struct tx_queue *txq, int rate, int burst)
        if (bucket_size > 65535)
                bucket_size = 65535;
 
-       wrl(mp, TXQ_BW_TOKENS(mp->port_num), token_rate << 14);
-       wrl(mp, TXQ_BW_CONF(mp->port_num),
+       wrl(mp, TXQ_BW_TOKENS(mp->port_num, txq->index), token_rate << 14);
+       wrl(mp, TXQ_BW_CONF(mp->port_num, txq->index),
                        (bucket_size << 10) | token_rate);
 }
 
@@ -845,10 +934,13 @@ static void txq_set_fixed_prio_mode(struct tx_queue *txq)
        /*
         * Turn on fixed priority mode.
         */
-       off = TXQ_FIX_PRIO_CONF(mp->port_num);
+       if (mp->shared->tx_bw_control_moved)
+               off = TXQ_FIX_PRIO_CONF_MOVED(mp->port_num);
+       else
+               off = TXQ_FIX_PRIO_CONF(mp->port_num);
 
        val = rdl(mp, off);
-       val |= 1;
+       val |= 1 << txq->index;
        wrl(mp, off, val);
 }
 
@@ -861,16 +953,19 @@ static void txq_set_wrr(struct tx_queue *txq, int weight)
        /*
         * Turn off fixed priority mode.
         */
-       off = TXQ_FIX_PRIO_CONF(mp->port_num);
+       if (mp->shared->tx_bw_control_moved)
+               off = TXQ_FIX_PRIO_CONF_MOVED(mp->port_num);
+       else
+               off = TXQ_FIX_PRIO_CONF(mp->port_num);
 
        val = rdl(mp, off);
-       val &= ~1;
+       val &= ~(1 << txq->index);
        wrl(mp, off, val);
 
        /*
         * Configure WRR weight for this queue.
         */
-       off = TXQ_BW_WRR_CONF(mp->port_num);
+       off = TXQ_BW_WRR_CONF(mp->port_num, txq->index);
 
        val = rdl(mp, off);
        val = (val & ~0xff) | (weight & 0xff);
@@ -1074,6 +1169,40 @@ static int mv643xx_eth_get_settings(struct net_device *dev, struct ethtool_cmd *
        return err;
 }
 
+static int mv643xx_eth_get_settings_phyless(struct net_device *dev, struct ethtool_cmd *cmd)
+{
+       struct mv643xx_eth_private *mp = netdev_priv(dev);
+       u32 port_status;
+
+       port_status = rdl(mp, PORT_STATUS(mp->port_num));
+
+       cmd->supported = SUPPORTED_MII;
+       cmd->advertising = ADVERTISED_MII;
+       switch (port_status & PORT_SPEED_MASK) {
+       case PORT_SPEED_10:
+               cmd->speed = SPEED_10;
+               break;
+       case PORT_SPEED_100:
+               cmd->speed = SPEED_100;
+               break;
+       case PORT_SPEED_1000:
+               cmd->speed = SPEED_1000;
+               break;
+       default:
+               cmd->speed = -1;
+               break;
+       }
+       cmd->duplex = (port_status & FULL_DUPLEX) ? DUPLEX_FULL : DUPLEX_HALF;
+       cmd->port = PORT_MII;
+       cmd->phy_address = 0;
+       cmd->transceiver = XCVR_INTERNAL;
+       cmd->autoneg = AUTONEG_DISABLE;
+       cmd->maxtxpkt = 1;
+       cmd->maxrxpkt = 1;
+
+       return 0;
+}
+
 static int mv643xx_eth_set_settings(struct net_device *dev, struct ethtool_cmd *cmd)
 {
        struct mv643xx_eth_private *mp = netdev_priv(dev);
@@ -1091,6 +1220,11 @@ static int mv643xx_eth_set_settings(struct net_device *dev, struct ethtool_cmd *
        return err;
 }
 
+static int mv643xx_eth_set_settings_phyless(struct net_device *dev, struct ethtool_cmd *cmd)
+{
+       return -EINVAL;
+}
+
 static void mv643xx_eth_get_drvinfo(struct net_device *dev,
                                    struct ethtool_drvinfo *drvinfo)
 {
@@ -1108,6 +1242,11 @@ static int mv643xx_eth_nway_reset(struct net_device *dev)
        return mii_nway_restart(&mp->mii);
 }
 
+static int mv643xx_eth_nway_reset_phyless(struct net_device *dev)
+{
+       return -EINVAL;
+}
+
 static u32 mv643xx_eth_get_link(struct net_device *dev)
 {
        struct mv643xx_eth_private *mp = netdev_priv(dev);
@@ -1115,6 +1254,11 @@ static u32 mv643xx_eth_get_link(struct net_device *dev)
        return mii_link_ok(&mp->mii);
 }
 
+static u32 mv643xx_eth_get_link_phyless(struct net_device *dev)
+{
+       return 1;
+}
+
 static void mv643xx_eth_get_strings(struct net_device *dev,
                                    uint32_t stringset, uint8_t *data)
 {
@@ -1174,6 +1318,18 @@ static const struct ethtool_ops mv643xx_eth_ethtool_ops = {
        .get_sset_count         = mv643xx_eth_get_sset_count,
 };
 
+static const struct ethtool_ops mv643xx_eth_ethtool_ops_phyless = {
+       .get_settings           = mv643xx_eth_get_settings_phyless,
+       .set_settings           = mv643xx_eth_set_settings_phyless,
+       .get_drvinfo            = mv643xx_eth_get_drvinfo,
+       .nway_reset             = mv643xx_eth_nway_reset_phyless,
+       .get_link               = mv643xx_eth_get_link_phyless,
+       .set_sg                 = ethtool_op_set_sg,
+       .get_strings            = mv643xx_eth_get_strings,
+       .get_ethtool_stats      = mv643xx_eth_get_ethtool_stats,
+       .get_sset_count         = mv643xx_eth_get_sset_count,
+};
+
 
 /* address handling *********************************************************/
 static void uc_addr_get(struct mv643xx_eth_private *mp, unsigned char *addr)
@@ -1415,13 +1571,15 @@ static void rxq_deinit(struct rx_queue *rxq)
        kfree(rxq->rx_skb);
 }
 
-static int txq_init(struct mv643xx_eth_private *mp)
+static int txq_init(struct mv643xx_eth_private *mp, int index)
 {
-       struct tx_queue *txq = mp->txq;
+       struct tx_queue *txq = mp->txq + index;
        struct tx_desc *tx_desc;
        int size;
        int i;
 
+       txq->index = index;
+
        txq->tx_ring_size = mp->default_tx_ring_size;
 
        txq->tx_desc_count = 0;
@@ -1430,7 +1588,7 @@ static int txq_init(struct mv643xx_eth_private *mp)
 
        size = txq->tx_ring_size * sizeof(struct tx_desc);
 
-       if (size <= mp->tx_desc_sram_size) {
+       if (index == mp->txq_primary && size <= mp->tx_desc_sram_size) {
                txq->tx_desc_area = ioremap(mp->tx_desc_sram_addr,
                                                mp->tx_desc_sram_size);
                txq->tx_desc_dma = mp->tx_desc_sram_addr;
@@ -1458,8 +1616,11 @@ static int txq_init(struct mv643xx_eth_private *mp)
 
        tx_desc = (struct tx_desc *)txq->tx_desc_area;
        for (i = 0; i < txq->tx_ring_size; i++) {
+               struct tx_desc *txd = tx_desc + i;
                int nexti = (i + 1) % txq->tx_ring_size;
-               tx_desc[i].next_desc_ptr = txq->tx_desc_dma +
+
+               txd->cmd_sts = 0;
+               txd->next_desc_ptr = txq->tx_desc_dma +
                                        nexti * sizeof(struct tx_desc);
        }
 
@@ -1467,7 +1628,7 @@ static int txq_init(struct mv643xx_eth_private *mp)
 
 
 out_free:
-       if (size <= mp->tx_desc_sram_size)
+       if (index == mp->txq_primary && size <= mp->tx_desc_sram_size)
                iounmap(txq->tx_desc_area);
        else
                dma_free_coherent(NULL, size,
@@ -1496,8 +1657,11 @@ static void txq_reclaim(struct tx_queue *txq, int force)
                desc = &txq->tx_desc_area[tx_index];
                cmd_sts = desc->cmd_sts;
 
-               if (!force && (cmd_sts & BUFFER_OWNED_BY_DMA))
-                       break;
+               if (cmd_sts & BUFFER_OWNED_BY_DMA) {
+                       if (!force)
+                               break;
+                       desc->cmd_sts = cmd_sts & ~BUFFER_OWNED_BY_DMA;
+               }
 
                txq->tx_used_desc = (tx_index + 1) % txq->tx_ring_size;
                txq->tx_desc_count--;
@@ -1539,7 +1703,8 @@ static void txq_deinit(struct tx_queue *txq)
 
        BUG_ON(txq->tx_used_desc != txq->tx_curr_desc);
 
-       if (txq->tx_desc_area_size <= mp->tx_desc_sram_size)
+       if (txq->index == mp->txq_primary &&
+           txq->tx_desc_area_size <= mp->tx_desc_sram_size)
                iounmap(txq->tx_desc_area);
        else
                dma_free_coherent(NULL, txq->tx_desc_area_size,
@@ -1550,41 +1715,61 @@ static void txq_deinit(struct tx_queue *txq)
 
 
 /* netdev ops and related ***************************************************/
-static void update_pscr(struct mv643xx_eth_private *mp, int speed, int duplex)
+static void handle_link_event(struct mv643xx_eth_private *mp)
 {
-       u32 pscr_o;
-       u32 pscr_n;
+       struct net_device *dev = mp->dev;
+       u32 port_status;
+       int speed;
+       int duplex;
+       int fc;
 
-       pscr_o = rdl(mp, PORT_SERIAL_CONTROL(mp->port_num));
+       port_status = rdl(mp, PORT_STATUS(mp->port_num));
+       if (!(port_status & LINK_UP)) {
+               if (netif_carrier_ok(dev)) {
+                       int i;
 
-       /* clear speed, duplex and rx buffer size fields */
-       pscr_n = pscr_o & ~(SET_MII_SPEED_TO_100   |
-                           SET_GMII_SPEED_TO_1000 |
-                           SET_FULL_DUPLEX_MODE   |
-                           MAX_RX_PACKET_MASK);
+                       printk(KERN_INFO "%s: link down\n", dev->name);
 
-       if (speed == SPEED_1000) {
-               pscr_n |= SET_GMII_SPEED_TO_1000 | MAX_RX_PACKET_9700BYTE;
-       } else {
-               if (speed == SPEED_100)
-                       pscr_n |= SET_MII_SPEED_TO_100;
-               pscr_n |= MAX_RX_PACKET_1522BYTE;
-       }
-
-       if (duplex == DUPLEX_FULL)
-               pscr_n |= SET_FULL_DUPLEX_MODE;
-
-       if (pscr_n != pscr_o) {
-               if ((pscr_o & SERIAL_PORT_ENABLE) == 0)
-                       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr_n);
-               else {
-                       txq_disable(mp->txq);
-                       pscr_o &= ~SERIAL_PORT_ENABLE;
-                       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr_o);
-                       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr_n);
-                       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr_n);
-                       txq_enable(mp->txq);
+                       netif_carrier_off(dev);
+                       netif_stop_queue(dev);
+
+                       for (i = 0; i < 8; i++) {
+                               struct tx_queue *txq = mp->txq + i;
+
+                               if (mp->txq_mask & (1 << i)) {
+                                       txq_reclaim(txq, 1);
+                                       txq_reset_hw_ptr(txq);
+                               }
+                       }
                }
+               return;
+       }
+
+       switch (port_status & PORT_SPEED_MASK) {
+       case PORT_SPEED_10:
+               speed = 10;
+               break;
+       case PORT_SPEED_100:
+               speed = 100;
+               break;
+       case PORT_SPEED_1000:
+               speed = 1000;
+               break;
+       default:
+               speed = -1;
+               break;
+       }
+       duplex = (port_status & FULL_DUPLEX) ? 1 : 0;
+       fc = (port_status & FLOW_CONTROL_ENABLED) ? 1 : 0;
+
+       printk(KERN_INFO "%s: link up, %d Mb/s, %s duplex, "
+                        "flow control %sabled\n", dev->name,
+                        speed, duplex ? "full" : "half",
+                        fc ? "en" : "dis");
+
+       if (!netif_carrier_ok(dev)) {
+               netif_carrier_on(dev);
+               netif_wake_queue(dev);
        }
 }
 
@@ -1595,7 +1780,8 @@ static irqreturn_t mv643xx_eth_irq(int irq, void *dev_id)
        u32 int_cause;
        u32 int_cause_ext;
 
-       int_cause = rdl(mp, INT_CAUSE(mp->port_num)) & (INT_RX | INT_EXT);
+       int_cause = rdl(mp, INT_CAUSE(mp->port_num)) &
+                       (INT_TX_END | INT_RX | INT_EXT);
        if (int_cause == 0)
                return IRQ_NONE;
 
@@ -1606,28 +1792,15 @@ static irqreturn_t mv643xx_eth_irq(int irq, void *dev_id)
                wrl(mp, INT_CAUSE_EXT(mp->port_num), ~int_cause_ext);
        }
 
-       if (int_cause_ext & (INT_EXT_PHY | INT_EXT_LINK)) {
-               if (mii_link_ok(&mp->mii)) {
-                       struct ethtool_cmd cmd;
-
-                       mii_ethtool_gset(&mp->mii, &cmd);
-                       update_pscr(mp, cmd.speed, cmd.duplex);
-                       txq_enable(mp->txq);
-                       if (!netif_carrier_ok(dev)) {
-                               netif_carrier_on(dev);
-                               __txq_maybe_wake(mp->txq);
-                       }
-               } else if (netif_carrier_ok(dev)) {
-                       netif_stop_queue(dev);
-                       netif_carrier_off(dev);
-               }
-       }
+       if (int_cause_ext & (INT_EXT_PHY | INT_EXT_LINK))
+               handle_link_event(mp);
 
        /*
         * RxBuffer or RxError set for any of the 8 queues?
         */
 #ifdef MV643XX_ETH_NAPI
        if (int_cause & INT_RX) {
+               wrl(mp, INT_CAUSE(mp->port_num), ~(int_cause & INT_RX));
                wrl(mp, INT_MASK(mp->port_num), 0x00000000);
                rdl(mp, INT_MASK(mp->port_num));
 
@@ -1643,9 +1816,53 @@ static irqreturn_t mv643xx_eth_irq(int irq, void *dev_id)
        }
 #endif
 
+       /*
+        * TxBuffer or TxError set for any of the 8 queues?
+        */
        if (int_cause_ext & INT_EXT_TX) {
-               txq_reclaim(mp->txq, 0);
-               __txq_maybe_wake(mp->txq);
+               int i;
+
+               for (i = 0; i < 8; i++)
+                       if (mp->txq_mask & (1 << i))
+                               txq_reclaim(mp->txq + i, 0);
+
+               /*
+                * Enough space again in the primary TX queue for a
+                * full packet?
+                */
+               if (netif_carrier_ok(dev)) {
+                       spin_lock(&mp->lock);
+                       __txq_maybe_wake(mp->txq + mp->txq_primary);
+                       spin_unlock(&mp->lock);
+               }
+       }
+
+       /*
+        * Any TxEnd interrupts?
+        */
+       if (int_cause & INT_TX_END) {
+               int i;
+
+               wrl(mp, INT_CAUSE(mp->port_num), ~(int_cause & INT_TX_END));
+
+               spin_lock(&mp->lock);
+               for (i = 0; i < 8; i++) {
+                       struct tx_queue *txq = mp->txq + i;
+                       u32 hw_desc_ptr;
+                       u32 expected_ptr;
+
+                       if ((int_cause & (INT_TX_END_0 << i)) == 0)
+                               continue;
+
+                       hw_desc_ptr =
+                               rdl(mp, TXQ_CURRENT_DESC_PTR(mp->port_num, i));
+                       expected_ptr = (u32)txq->tx_desc_dma +
+                               txq->tx_curr_desc * sizeof(struct tx_desc);
+
+                       if (hw_desc_ptr != expected_ptr)
+                               txq_enable(txq);
+               }
+               spin_unlock(&mp->lock);
        }
 
        return IRQ_HANDLED;
@@ -1655,56 +1872,58 @@ static void phy_reset(struct mv643xx_eth_private *mp)
 {
        unsigned int data;
 
-       smi_reg_read(mp, mp->phy_addr, 0, &data);
-       data |= 0x8000;
-       smi_reg_write(mp, mp->phy_addr, 0, data);
+       smi_reg_read(mp, mp->phy_addr, MII_BMCR, &data);
+       data |= BMCR_RESET;
+       smi_reg_write(mp, mp->phy_addr, MII_BMCR, data);
 
        do {
                udelay(1);
-               smi_reg_read(mp, mp->phy_addr, 0, &data);
-       } while (data & 0x8000);
+               smi_reg_read(mp, mp->phy_addr, MII_BMCR, &data);
+       } while (data & BMCR_RESET);
 }
 
 static void port_start(struct mv643xx_eth_private *mp)
 {
        u32 pscr;
-       struct ethtool_cmd ethtool_cmd;
        int i;
 
        /*
+        * Perform PHY reset, if there is a PHY.
+        */
+       if (mp->phy_addr != -1) {
+               struct ethtool_cmd cmd;
+
+               mv643xx_eth_get_settings(mp->dev, &cmd);
+               phy_reset(mp);
+               mv643xx_eth_set_settings(mp->dev, &cmd);
+       }
+
+       /*
         * Configure basic link parameters.
         */
        pscr = rdl(mp, PORT_SERIAL_CONTROL(mp->port_num));
-       pscr &= ~(SERIAL_PORT_ENABLE | FORCE_LINK_PASS);
-       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
-       pscr |= DISABLE_AUTO_NEG_FOR_FLOW_CTRL |
-               DISABLE_AUTO_NEG_SPEED_GMII    |
-               DISABLE_AUTO_NEG_FOR_DUPLEX    |
-               DO_NOT_FORCE_LINK_FAIL         |
-               SERIAL_PORT_CONTROL_RESERVED;
-       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
+
        pscr |= SERIAL_PORT_ENABLE;
        wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
 
-       wrl(mp, SDMA_CONFIG(mp->port_num), PORT_SDMA_CONFIG_DEFAULT_VALUE);
+       pscr |= DO_NOT_FORCE_LINK_FAIL;
+       if (mp->phy_addr == -1)
+               pscr |= FORCE_LINK_PASS;
+       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
 
-       mv643xx_eth_get_settings(mp->dev, &ethtool_cmd);
-       phy_reset(mp);
-       mv643xx_eth_set_settings(mp->dev, &ethtool_cmd);
+       wrl(mp, SDMA_CONFIG(mp->port_num), PORT_SDMA_CONFIG_DEFAULT_VALUE);
 
        /*
         * Configure TX path and queues.
         */
        tx_set_rate(mp, 1000000000, 16777216);
-       for (i = 0; i < 1; i++) {
-               struct tx_queue *txq = mp->txq;
-               int off = TXQ_CURRENT_DESC_PTR(mp->port_num);
-               u32 addr;
+       for (i = 0; i < 8; i++) {
+               struct tx_queue *txq = mp->txq + i;
 
-               addr = (u32)txq->tx_desc_dma;
-               addr += txq->tx_curr_desc * sizeof(struct tx_desc);
-               wrl(mp, off, addr);
+               if ((mp->txq_mask & (1 << i)) == 0)
+                       continue;
 
+               txq_reset_hw_ptr(txq);
                txq_set_rate(txq, 1000000000, 16777216);
                txq_set_fixed_prio_mode(txq);
        }
@@ -1747,14 +1966,22 @@ static void port_start(struct mv643xx_eth_private *mp)
 static void set_rx_coal(struct mv643xx_eth_private *mp, unsigned int delay)
 {
        unsigned int coal = ((mp->shared->t_clk / 1000000) * delay) / 64;
+       u32 val;
 
-       if (coal > 0x3fff)
-               coal = 0x3fff;
-
-       wrl(mp, SDMA_CONFIG(mp->port_num),
-               ((coal & 0x3fff) << 8) |
-               (rdl(mp, SDMA_CONFIG(mp->port_num))
-                       & 0xffc000ff));
+       val = rdl(mp, SDMA_CONFIG(mp->port_num));
+       if (mp->shared->extended_rx_coal_limit) {
+               if (coal > 0xffff)
+                       coal = 0xffff;
+               val &= ~0x023fff80;
+               val |= (coal & 0x8000) << 10;
+               val |= (coal & 0x7fff) << 7;
+       } else {
+               if (coal > 0x3fff)
+                       coal = 0x3fff;
+               val &= ~0x003fff00;
+               val |= (coal & 0x3fff) << 8;
+       }
+       wrl(mp, SDMA_CONFIG(mp->port_num), val);
 }
 
 static void set_tx_coal(struct mv643xx_eth_private *mp, unsigned int delay)
@@ -1801,14 +2028,26 @@ static int mv643xx_eth_open(struct net_device *dev)
                rxq_refill(mp->rxq + i);
        }
 
-       err = txq_init(mp);
-       if (err)
-               goto out_free;
+       for (i = 0; i < 8; i++) {
+               if ((mp->txq_mask & (1 << i)) == 0)
+                       continue;
+
+               err = txq_init(mp, i);
+               if (err) {
+                       while (--i >= 0)
+                               if (mp->txq_mask & (1 << i))
+                                       txq_deinit(mp->txq + i);
+                       goto out_free;
+               }
+       }
 
 #ifdef MV643XX_ETH_NAPI
        napi_enable(&mp->napi);
 #endif
 
+       netif_carrier_off(dev);
+       netif_stop_queue(dev);
+
        port_start(mp);
 
        set_rx_coal(mp, 0);
@@ -1817,7 +2056,7 @@ static int mv643xx_eth_open(struct net_device *dev)
        wrl(mp, INT_MASK_EXT(mp->port_num),
            INT_EXT_LINK | INT_EXT_PHY | INT_EXT_TX);
 
-       wrl(mp, INT_MASK(mp->port_num), INT_RX | INT_EXT);
+       wrl(mp, INT_MASK(mp->port_num), INT_TX_END | INT_RX | INT_EXT);
 
        return 0;
 
@@ -1840,10 +2079,17 @@ static void port_reset(struct mv643xx_eth_private *mp)
        for (i = 0; i < 8; i++) {
                if (mp->rxq_mask & (1 << i))
                        rxq_disable(mp->rxq + i);
+               if (mp->txq_mask & (1 << i))
+                       txq_disable(mp->txq + i);
        }
-       txq_disable(mp->txq);
-       while (!(rdl(mp, PORT_STATUS(mp->port_num)) & TX_FIFO_EMPTY))
+
+       while (1) {
+               u32 ps = rdl(mp, PORT_STATUS(mp->port_num));
+
+               if ((ps & (TX_IN_PROGRESS | TX_FIFO_EMPTY)) == TX_FIFO_EMPTY)
+                       break;
                udelay(10);
+       }
 
        /* Reset the Enable bit in the Configuration Register */
        data = rdl(mp, PORT_SERIAL_CONTROL(mp->port_num));
@@ -1875,8 +2121,9 @@ static int mv643xx_eth_stop(struct net_device *dev)
        for (i = 0; i < 8; i++) {
                if (mp->rxq_mask & (1 << i))
                        rxq_deinit(mp->rxq + i);
+               if (mp->txq_mask & (1 << i))
+                       txq_deinit(mp->txq + i);
        }
-       txq_deinit(mp->txq);
 
        return 0;
 }
@@ -1885,7 +2132,10 @@ static int mv643xx_eth_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd)
 {
        struct mv643xx_eth_private *mp = netdev_priv(dev);
 
-       return generic_mii_ioctl(&mp->mii, if_mii(ifr), cmd, NULL);
+       if (mp->phy_addr != -1)
+               return generic_mii_ioctl(&mp->mii, if_mii(ifr), cmd, NULL);
+
+       return -EOPNOTSUPP;
 }
 
 static int mv643xx_eth_change_mtu(struct net_device *dev, int new_mtu)
@@ -1928,7 +2178,7 @@ static void tx_timeout_task(struct work_struct *ugly)
                port_reset(mp);
                port_start(mp);
 
-               __txq_maybe_wake(mp->txq);
+               __txq_maybe_wake(mp->txq + mp->txq_primary);
        }
 }
 
@@ -1951,7 +2201,7 @@ static void mv643xx_eth_netpoll(struct net_device *dev)
 
        mv643xx_eth_irq(dev->irq, dev);
 
-       wrl(mp, INT_MASK(mp->port_num), INT_RX | INT_CAUSE_EXT);
+       wrl(mp, INT_MASK(mp->port_num), INT_TX_END | INT_RX | INT_EXT);
 }
 #endif
 
@@ -2008,6 +2258,30 @@ mv643xx_eth_conf_mbus_windows(struct mv643xx_eth_shared_private *msp,
        msp->win_protect = win_protect;
 }
 
+static void infer_hw_params(struct mv643xx_eth_shared_private *msp)
+{
+       /*
+        * Check whether we have a 14-bit coal limit field in bits
+        * [21:8], or a 16-bit coal limit in bits [25,21:7] of the
+        * SDMA config register.
+        */
+       writel(0x02000000, msp->base + SDMA_CONFIG(0));
+       if (readl(msp->base + SDMA_CONFIG(0)) & 0x02000000)
+               msp->extended_rx_coal_limit = 1;
+       else
+               msp->extended_rx_coal_limit = 0;
+
+       /*
+        * Check whether the TX rate control registers are in the
+        * old or the new place.
+        */
+       writel(1, msp->base + TX_BW_MTU_MOVED(0));
+       if (readl(msp->base + TX_BW_MTU_MOVED(0)) & 1)
+               msp->tx_bw_control_moved = 1;
+       else
+               msp->tx_bw_control_moved = 0;
+}
+
 static int mv643xx_eth_shared_probe(struct platform_device *pdev)
 {
        static int mv643xx_eth_version_printed = 0;
@@ -2017,7 +2291,8 @@ static int mv643xx_eth_shared_probe(struct platform_device *pdev)
        int ret;
 
        if (!mv643xx_eth_version_printed++)
-               printk(KERN_NOTICE "MV-643xx 10/100/1000 Ethernet Driver\n");
+               printk(KERN_NOTICE "MV-643xx 10/100/1000 ethernet "
+                       "driver version %s\n", mv643xx_eth_driver_version);
 
        ret = -EINVAL;
        res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
@@ -2046,6 +2321,7 @@ static int mv643xx_eth_shared_probe(struct platform_device *pdev)
         * Detect hardware parameters.
         */
        msp->t_clk = (pd != NULL && pd->t_clk != 0) ? pd->t_clk : 133000000;
+       infer_hw_params(msp);
 
        platform_set_drvdata(pdev, msp);
 
@@ -2139,6 +2415,12 @@ static void set_params(struct mv643xx_eth_private *mp,
                mp->default_tx_ring_size = pd->tx_queue_size;
        mp->tx_desc_sram_addr = pd->tx_sram_addr;
        mp->tx_desc_sram_size = pd->tx_sram_size;
+
+       if (pd->tx_queue_mask)
+               mp->txq_mask = pd->tx_queue_mask;
+       else
+               mp->txq_mask = 0x01;
+       mp->txq_primary = fls(mp->txq_mask) - 1;
 }
 
 static int phy_detect(struct mv643xx_eth_private *mp)
@@ -2146,14 +2428,14 @@ static int phy_detect(struct mv643xx_eth_private *mp)
        unsigned int data;
        unsigned int data2;
 
-       smi_reg_read(mp, mp->phy_addr, 0, &data);
-       smi_reg_write(mp, mp->phy_addr, 0, data ^ 0x1000);
+       smi_reg_read(mp, mp->phy_addr, MII_BMCR, &data);
+       smi_reg_write(mp, mp->phy_addr, MII_BMCR, data ^ BMCR_ANENABLE);
 
-       smi_reg_read(mp, mp->phy_addr, 0, &data2);
-       if (((data ^ data2) & 0x1000) == 0)
+       smi_reg_read(mp, mp->phy_addr, MII_BMCR, &data2);
+       if (((data ^ data2) & BMCR_ANENABLE) == 0)
                return -ENODEV;
 
-       smi_reg_write(mp, mp->phy_addr, 0, data);
+       smi_reg_write(mp, mp->phy_addr, MII_BMCR, data);
 
        return 0;
 }
@@ -2201,12 +2483,39 @@ static int phy_init(struct mv643xx_eth_private *mp,
                cmd.duplex = pd->duplex;
        }
 
-       update_pscr(mp, cmd.speed, cmd.duplex);
        mv643xx_eth_set_settings(mp->dev, &cmd);
 
        return 0;
 }
 
+static void init_pscr(struct mv643xx_eth_private *mp, int speed, int duplex)
+{
+       u32 pscr;
+
+       pscr = rdl(mp, PORT_SERIAL_CONTROL(mp->port_num));
+       if (pscr & SERIAL_PORT_ENABLE) {
+               pscr &= ~SERIAL_PORT_ENABLE;
+               wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
+       }
+
+       pscr = MAX_RX_PACKET_9700BYTE | SERIAL_PORT_CONTROL_RESERVED;
+       if (mp->phy_addr == -1) {
+               pscr |= DISABLE_AUTO_NEG_SPEED_GMII;
+               if (speed == SPEED_1000)
+                       pscr |= SET_GMII_SPEED_TO_1000;
+               else if (speed == SPEED_100)
+                       pscr |= SET_MII_SPEED_TO_100;
+
+               pscr |= DISABLE_AUTO_NEG_FOR_FLOW_CTRL;
+
+               pscr |= DISABLE_AUTO_NEG_FOR_DUPLEX;
+               if (duplex == DUPLEX_FULL)
+                       pscr |= SET_FULL_DUPLEX_MODE;
+       }
+
+       wrl(mp, PORT_SERIAL_CONTROL(mp->port_num), pscr);
+}
+
 static int mv643xx_eth_probe(struct platform_device *pdev)
 {
        struct mv643xx_eth_platform_data *pd;
@@ -2251,10 +2560,16 @@ static int mv643xx_eth_probe(struct platform_device *pdev)
        mib_counters_clear(mp);
        INIT_WORK(&mp->tx_timeout_task, tx_timeout_task);
 
-       err = phy_init(mp, pd);
-       if (err)
-               goto out;
-       SET_ETHTOOL_OPS(dev, &mv643xx_eth_ethtool_ops);
+       if (mp->phy_addr != -1) {
+               err = phy_init(mp, pd);
+               if (err)
+                       goto out;
+
+               SET_ETHTOOL_OPS(dev, &mv643xx_eth_ethtool_ops);
+       } else {
+               SET_ETHTOOL_OPS(dev, &mv643xx_eth_ethtool_ops_phyless);
+       }
+       init_pscr(mp, pd->speed, pd->duplex);
 
 
        res = platform_get_resource(pdev, IORESOURCE_IRQ, 0);
@@ -2281,6 +2596,7 @@ static int mv643xx_eth_probe(struct platform_device *pdev)
         * have to map the buffers to ISA memory which is only 16 MB
         */
        dev->features = NETIF_F_SG | NETIF_F_IP_CSUM;
+       dev->vlan_features = NETIF_F_SG | NETIF_F_IP_CSUM;
 #endif
 
        SET_NETDEV_DEV(dev, &pdev->dev);
@@ -2373,8 +2689,8 @@ static void __exit mv643xx_eth_cleanup_module(void)
 }
 module_exit(mv643xx_eth_cleanup_module);
 
-MODULE_AUTHOR("Rabeeh Khoury, Assaf Hoffman, Matthew Dharm, Manish Lachwani "
-             "and Dale Farnsworth");
+MODULE_AUTHOR("Rabeeh Khoury, Assaf Hoffman, Matthew Dharm, "
+             "Manish Lachwani, Dale Farnsworth and Lennert Buytenhek");
 MODULE_DESCRIPTION("Ethernet driver for Marvell MV643XX");
 MODULE_LICENSE("GPL");
 MODULE_ALIAS("platform:" MV643XX_ETH_SHARED_NAME);